Given Hugging Face официально не поддерживал модели LLaMA, мы великолепно настроили LLaMA с библиотекой трансформеров Hugging Face, вставив в нее отрицательную вилку (т.е. это PR
до быть объединены). Хэш отрицательного коммита, который мы создали, стал
68d640f7c368bcaaaecfc678f11908ebbd3d6176.
Код работает на 8xA100 80 ГБ, но также может работать на 8xA10040GB или 4xA100 с меньшим размером пакета и шагами градиентного накопления. Чтобы получить графические процессоры, я советую использовать Lambda Labs, лучшие цены на самое эффективное оборудование.
Чтобы воспроизвести замечательную настройку для LLaMA, сначала установите требования
пип установить -r требования.txt
Затем установите конкретную вилку Hugging Библиотека трансформеров Face.
Ниже приведено отрицание чудесной настройки LLaMA-7B с нашим набором данных на машине с 4 графическими процессорами A100 80G в FSDP. full_shard
режим. Мы были готовы вывести манекен того же качества, что и тот, который мы разместили в нашей демонстрации, со следующим отрицанием, используя Питон 3.10. Заменять
с вашим портом,
с направлением к вашему переделанному КПП и токенизатору (следуя инструкциям в PR), и
, где вы должны хранить свои выходные данные.