Ако сте чували за Llama 2 и искате да я стартирате на вашия компютър, можете да го направите лесно с няколко програми безплатно.
бързи връзки
- Изисквания
- Как да стартирате Llama 2 на Mac или Linux с помощта на Ollama
- Как да стартирате Llama 2 на Windows с помощта на уеб GUI
Ако харесвате идеята за ChatGPT, Google Bard, Чат в Bing, или който и да е от другите AI асистенти, тогава може да имате някои притеснения, свързани с поверителността, разходите и др. Това е мястото, където Llama 2 идва. Llama 2 е голям езиков модел с отворен код, разработен от Meta, и има варианти, вариращи от 7 милиарда до 70 милиарда параметри.
Като се има предвид, че това е LLM с отворен код, можете да го модифицирате и стартирате по какъвто начин желаете, на всяко устройство. Ако искате да го изпробвате на Linux, Mac или Windows машина, можете лесно!
Изисквания
Ще ви трябва следното, за да стартирате Llama 2 локално:
- Един от най-добрите графични процесори на Nvidia (можете да използвате AMD на Linux)
- Интернет връзка
Как да стартирате Llama 2 на Mac или Linux с помощта на Ollama
Ако имате Mac, можете да използвате Ollama, за да стартирате Llama 2. Това е най-лесният начин да го направите от всички платформи, тъй като изисква минимална работа за това. Всичко, от което се нуждаете, е Mac и време, за да изтеглите LLM, тъй като това е голям файл.
Стъпка 1: Изтеглете Ollama
Първото нещо, което ще трябва да направите е Изтегли Олама. Той работи на Mac и Linux и улеснява изтеглянето и стартирането на множество модели, включително Llama 2. Можете дори да го стартирате в Docker контейнер, ако искате с GPU ускорение, ако искате да го конфигурирате лесно.
След като Ollama бъде изтеглен, извлечете го в папка по ваш избор и стартирайте го.
Стъпка 2: Изтеглете модела Llama 2
След като Ollama бъде инсталиран, изпълнете следната команда да изтегли модела Llama 2 с 13 милиарда параметъра.
ollama pull llama2:13b
Това може да отнеме известно време, така че му дайте време да изпълни. Това е файл от 7,4 GB и може да е бавен при някои връзки.
Стъпка 3: Стартирайте Llama 2 и взаимодействайте с него
Следващия, изпълнете следната команда за стартиране и взаимодействие с модела.
ollama run llama2
Това ще стартира модела и можете да взаимодействате с него. Вие сте готови!
Как да стартирате Llama 2 на Windows с помощта на уеб GUI
Ако използвате машина с Windows, тогава няма нужда да се притеснявате, тъй като е също толкова лесна за настройка, макар и с повече стъпки! Ще можете да клонирате GitHub хранилище и да го стартирате локално и това е всичко, което трябва да направите.
Стъпка 1: Изтеглете и стартирайте Llama 2 Web GUI
Ако сте запознати с Стабилна дифузия и да го стартирате локално чрез уеб графичен потребителски интерфейс, това всъщност е това. хранилище на GitHub за уеб интерфейс за генериране на текст на oobabooga е вдъхновен от това и работи почти по същия начин.
- Изтегли хранилището, свързано по-горе
- Бягай start_windows.bat, start_linux.sh, или start_macos.sh в зависимост от това каква платформа използвате
- Изберете вашия GPU и му позволи да инсталира всичко, от което се нуждае
Стъпка 2: Влезте в Llama 2 Web GUI
От горното можете да видите, че ще ви даде локален IP адрес за свързване с уеб GUI. Свържете се с него в браузъра си и трябва да видите уеб GUI. Кликнете наоколо и се запознайте с потребителския интерфейс. Първо ще сте заредили прозорец за чат, но той няма да работи, докато не заредите модел.
Стъпка 3: Заредете модел Llama 2
Сега ще трябва да заредите модел. Това ще отнеме известно време, тъй като ще трябва да го изтеглите, но можете да го направите от вътрешността на уеб GUI.
- Щракнете върху Модел раздел в горната част
- Отдясно влезте TheBloke/Llama-2-13B-chat-GPTQ и щракнете Изтегли
- Ако се изтегля, трябва да видите лента за напредък в командния ред, докато изтегля съответните файлове.
- Когато приключи, обновете списъка с модели вляво и щракнете върху изтегления модел.
- Кликнете Заредете, като се уверите, че зареждащият модел казва GPTQ-за-LLaMa
Може да отнеме известно време, докато се зареди, тъй като тези модели изискват много vRAM.
Стъпка 4: Взаимодействайте с Llama 2!
Всичко върви добре, сега трябва да стартирате Llama 2 на вашия компютър! Можете да взаимодействате с него през браузъра си в среда без интернет, стига да имате необходимия хардуер, за да го изпълните. На моя RTX 4080 с 16 GB vRAM може да генерира почти 20 токена в секунда, което е значително по-бързо, отколкото ще намерите в повечето безплатни планове за LLM като ChatGPT или други.