Как да инсталирате Gemma 3 LLM на Windows 11 стъпка по стъпка

Последна актуализация: 02/04/2025

  • Gemma 3 е изключително гъвкав, мултимодален LLM модел, разработен от Google
  • Може да се инсталира на Windows 11 с помощта на Ollama, LM Studio или да се използва чрез Google AI Studio
  • Изисква променливи ресурси в зависимост от размера на модела, от 8 GB до 32 GB RAM
  • Включва разширени функции като въвеждане на изображение и до 128k контекстни жетони
Как да инсталирате Gemma 3 LLM на Windows 11/8

Езиковите модели с отворен код са се развили със скокове и граници, и Днес е възможно да им се наслаждавате директно от персонален компютър, без да зависи от облачните услуги.. Един от най-обещаващите в момента е Gemma 3, новият LLM на Google, базиран на технологията Gemini, който се отличава със способността си да обработва текст и изображения, както и с огромния си контекстен прозорец от до 128 XNUMX токена в своите разширени версии. За повече информация относно това издание можете да посетите нашата статия за представянето на Gemma 3.

Ако използвате Windows 11 и искате да инсталирате Gemma 3 за експериментиране или дори за местно производство, вие сте попаднали на правилното място. Нека разгледаме подробно всички възможни начини да го стартирате и да работите на вашия компютър, включително най-препоръчителните опции като Ollama, LM Studio, а също и облачна алтернатива с Google AI Studio. Освен това ще разгледаме техническите изисквания, предимствата на всеки метод и Как да се възползваме максимално от потенциала на този мощен изкуствен интелект.

Какво е Gemma 3 и защо да го инсталирате?

Google пуска Gemma 3-4

Gemma 3 е третото поколение LLM модели, пуснати от Google под лиценз с отворен код.. За разлика от предишни решения като Llama или Mistral, той предлага директна поддръжка за въвеждане на изображения, много по-широк контекст и поддръжка за над 140 езика. В зависимост от вашите нужди можете да избирате от няколко версии на модела, вариращи от 1B до 27B параметри:

  • Гема 3:1Б: Лек модел, идеален за основни задачи и среди с ограничени ресурси.
  • Гема 3:4Б: Балансиране на производителност и ефективност за междинни приложения.
  • Гема 3:12Б: Препоръчва се за сложен анализ, програмиране и многоезична обработка.
  • Гема 3:27Б: Най-мощната опция, предназначена за интензивни, мултимодални употреби с голям контекстуален капацитет.
Изключително съдържание - Щракнете тук  Как да експортирате списъка си с бюджети с директна фактура?

Възможността за стартиране на такъв усъвършенстван модел от вашия компютър Той променя правилата на играта по отношение на поверителността, скоростта на реакция и зависимостта от трети страни. Вече не е необходимо да плащате месечни абонаменти или да се отказвате от данните си. Необходима е само малко подготовка и желание за учене. Ако искате да научите повече за предимствата на тези модели, вижте нашата статия за AI модели с отворено тегло.

Вариант 1: Инсталиране с Ollama

Олама изтегляне

Ollama е може би най-лесният начин да стартирате LLM като Gemma 3 от Windows 11. Неговият терминален интерфейс ви позволява да инсталирате и стартирате модели с прост команден ред. Плюс това, той е съвместим с macOS, Linux и Windows, което го прави лесен за използване в различни среди.

Стъпки за инсталиране на Ollama и стартиране на Gemma 3:

  1. Достъп до официалния уебсайт: ollama.com.
  2. Изтеглете инсталатора за Windows и го стартирайте като всяка друга програма.
  3. Отворете командния ред (CMD) или PowerShell и проверете инсталацията с:
ollama --version

Ако всичко върви добре, сега можете да изтеглите всеки от наличните шаблони на Gemma 3. Просто изпълнете една от тези команди в зависимост от шаблона, който искате:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

След като го изтеглите, можете лесно да стартирате модела.. За да направите това, стартирайте:

ollama init gemma3

От този момент нататък можете да започнете да взаимодействате с LLM чрез:

ollama query gemma3 "¿Cuál es la capital de Japón?"

Ако искате да се възползвате от мултимодални функции, можете също да използвате изображения във вашите заявки:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

Какво ви е необходимо, за да работи добре? Въпреки че Ollama не налага строги минимални изисквания, по-големите модели (като 27B) изискват поне 32 GB RAM. С 16GB можете да работите безпроблемно с модела 7B и въпреки че използването на GPU не е задължително, помага много за скоростта.

Изключително съдържание - Щракнете тук  Как да се абонирам за имейл списъка на приложението Brainly?

Вариант 2: Използвайте LM Studio

LM Studio

LM Studio е друг безплатен инструмент, който ви позволява да инсталирате и стартирате LLM модели локално от графичен интерфейс.. Съвместим е с Windows, macOS и Linux, като голямото му предимство е, че не изисква технически познания за работа.

инструкции:

  1. Изтеглете LM Studio от официалния му уебсайт: lmstudio.ai.
  2. Инсталирайте го и го стартирайте.
  3. Щракнете върху иконата на лупа с надпис „Открийте“.
  4. Напишете “Gemma 3” в търсачката, за да видите наличните модели.

Преди да инсталирате, проверете дали моделът е съвместим с вашето оборудване. Ако видите предупреждението „Вероятно е твърде голямо за тази машина“, пак можете да го инсталирате, но оптималната производителност не е гарантирана.

След като бъде изтеглен съвместим модел:

  • Натиснете “Load Model”, за да го заредите.
  • Или отворете нов чат и изберете модела от падащото меню.

Най-хубавото на LM Studio е, че действа като вид локален ChatGPT, офлайн и на вашия език. Можете да създадете множество чатове и да запазите вашите разговори, ако желаете. Освен това, ако активирате опцията „Локален сървър“, можете да я интегрирате с вашите приложения на Python, като използвате API, съвместим с OpenAI.

Опция 3: Използвайте Google AI Studio (онлайн)

Google AI Studio

Ако не можете или не искате да инсталирате нищо, можете да използвате Gemma 3 директно от облака с Google AI Studio. Не е необходима инсталация, но са необходими интернет връзка и акаунт в Google.

Просто трябва да отидете на aistudio.google.com и изберете “Gemma 3” от списъка с модели. От този момент нататък можете да започнете да чатите с модела, сякаш е разширена версия на Bard или ChatGPT, включително въвеждане на изображение.

Облачна инсталация с NodeShift (по избор)

За тези, които търсят повече мощност или професионално внедряване на модела, има опция за използване на облачни услуги като NodeShift. С тях можете да наемете машини с мощни графични процесори и да конфигурирате идеалната си среда за работа с Gemma 3 без ограничения.

Изключително съдържание - Щракнете тук  Как да ограничим времето за игра в приложението Pou?

Основни стъпки в NodeShift:

  1. Създайте акаунт на адрес app.nodeshift.com.
  2. Стартирайте персонализиран GPU Node (напр. с 2x RTX 4090).
  3. Изберете предварително конфигуриран образ с Ubuntu + Nvidia CUDA или Jupyter Notebook, в зависимост от това дали ще използвате Ollama или Transformers.
  4. Свържете се чрез SSH и инсталирайте модела от командния ред.

Този тип инсталация ви дава достъп до професионални конфигурации, идеален за модели за обучение, оценка на производителността и т.н. Въпреки че не е от съществено значение за домашните потребители, той е полезен за тези, които искат да експериментират в дълбочина или да създават приложения върху напреднали LLMs.

Системни изисквания и технически препоръки

Не всички модели Gemma 3 ще работят на всеки компютър. По-долу ви оставяме обща справка според вида на модела:

  • за модели 1B до 7B: минимум 8 GB оперативна памет. Те работят на почти всеки модерен компютър, дори без GPU.
  • за 13B модели: препоръчват се 16GB до 24GB RAM.
  • за 27B модели: са необходими поне 32 GB RAM и за предпочитане специален графичен процесор.

Наличието на повече RAM ускорява работата и предотвратява грешки поради липса на памет. Докато Ollama и LM Studio се опитват да използват ресурсите ефективно, това ще зависи много от вашия хардуер. В допълнение, скоростта на реакция се подобрява значително, ако се използва GPU вместо CPU.

Инсталирането на Gemma 3 на Windows 11 е по-лесно, отколкото изглежда.. Няма значение дали решите да използвате Ollama заради неговата простота, LM Studio заради неговия графичен интерфейс или Google AI Studio, за да играете безопасно в облака. Важното е, че всеки метод се адаптира към различни нива на опит и технически възможности. Сега, след като знаете всички опции и какво ви трябва, за да започнете, можете да започнете да експериментирате с този впечатляващ местен изкуствен интелект днес.