نحوه نصب گام به گام Gemma 3 LLM در ویندوز 11

اخرین بروزرسانی: 02/04/2025

  • Gemma 3 یک مدل LLM بسیار انعطاف پذیر و چندوجهی است که توسط گوگل توسعه یافته است
  • می توان آن را بر روی ویندوز 11 با استفاده از Ollama، LM Studio نصب کرد یا از طریق Google AI Studio استفاده کرد
  • نیاز به منابع متغیر بسته به اندازه مدل، از 8 گیگابایت تا 32 گیگابایت رم
  • دارای ویژگی های پیشرفته ای مانند ورودی تصویر و تا 128 هزار توکن زمینه است
نحوه نصب Gemma 3 LLM در ویندوز 11/8

مدل های زبان منبع باز با جهش و مرز تکامل یافته اند و امروزه می توان بدون وابستگی به خدمات ابری، مستقیماً از رایانه شخصی از آنها لذت برد.. یکی از امیدوارکننده‌ترین موارد در حال حاضر Gemma 3، LLM جدید گوگل بر اساس فناوری Gemini است که به دلیل توانایی پردازش متن و تصاویر و همچنین به دلیل پنجره زمینه عظیم تا 128 هزار توکن در نسخه‌های پیشرفته‌اش برجسته است. برای کسب اطلاعات بیشتر در مورد این نسخه، می توانید به مقاله ما در مورد مراجعه کنید ارائه Gemma 3.

اگر از ویندوز 11 استفاده می کنید و به دنبال نصب Gemma 3 برای آزمایش یا حتی تولید محلی هستید، شما به جای مناسب آمده اید. بیایید همه راه‌های ممکن برای راه‌اندازی و اجرای آن در رایانه‌تان را با جزئیات مرور کنیم، از جمله توصیه‌شده‌ترین گزینه‌ها مانند Ollama، LM Studio، و همچنین یک جایگزین مبتنی بر ابر با Google AI Studio. علاوه بر این، به الزامات فنی، مزایای هر روش و چگونه از پتانسیل این هوش مصنوعی قدرتمند نهایت استفاده را ببریم.

Gemma 3 چیست و چرا آن را نصب کنید؟

گوگل Gemma 3-4 را راه اندازی کرد

Gemma 3 سومین نسل از مدل های LLM است که توسط گوگل تحت مجوز منبع باز منتشر شده است.. برخلاف راه حل های قبلی مانند Llama یا Mistral، پشتیبانی مستقیم از ورودی تصویر، زمینه بسیار گسترده تر و پشتیبانی از بیش از 140 زبان را ارائه می دهد. بسته به نیاز خود، می توانید از چندین نسخه از مدل از پارامترهای 1B تا 27B انتخاب کنید:

  • جما 3:1B: مدل سبک وزن ایده آل برای کارهای اساسی و محیط های با منابع محدود.
  • جما 3:4B: متعادل کردن عملکرد و کارایی برای کاربردهای متوسط.
  • جما 3:12B: برای تجزیه و تحلیل پیچیده، برنامه نویسی و پردازش چند زبانه توصیه می شود.
  • جما 3:27B: قدرتمندترین گزینه، طراحی شده برای مصارف فشرده و چندوجهی با ظرفیت زمینه ای زیاد.
محتوای اختصاصی - اینجا را کلیک کنید  چند اتصال بلوتوث همزمان در ویندوز 11

امکان اجرای چنین مدل پیشرفته ای از رایانه شخصی شما قوانین بازی را از نظر حریم خصوصی، سرعت پاسخگویی و وابستگی به اشخاص ثالث تغییر می دهد. دیگر نیازی به پرداخت اشتراک ماهانه یا صرف نظر از داده های خود ندارید. تنها چیزی که لازم است کمی آمادگی و تمایل به یادگیری است. اگر می خواهید در مورد مزایای این مدل ها بیشتر بدانید، مقاله ما را در این مورد بررسی کنید مدل های هوش مصنوعی وزن باز.

گزینه 1: نصب با اوللاما

اولاما دانلود

Ollama احتمالا ساده ترین راه برای اجرای LLM مانند Gemma 3 از ویندوز 11 است. رابط مبتنی بر ترمینال آن به شما امکان می دهد مدل ها را با یک خط فرمان ساده نصب و اجرا کنید. به علاوه، با macOS، Linux و Windows سازگار است و استفاده از آن را در محیط های مختلف آسان می کند.

مراحل نصب Olama و اجرای Gemma 3:

  1. دسترسی به وب سایت رسمی: olama.com.
  2. نصب کننده را برای ویندوز دانلود کنید و آن را مانند هر برنامه دیگری اجرا کنید.
  3. Command Prompt (CMD) یا PowerShell را باز کنید و نصب را با:
ollama --version

اگر همه چیز خوب پیش رفت، اکنون می توانید هر یک از قالب های موجود Gemma 3 را دانلود کنید. به سادگی یکی از این دستورات را بسته به قالبی که می خواهید اجرا کنید:

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

پس از دانلود، می توانید به راحتی مدل را راه اندازی کنید.. برای انجام این کار، اجرا کنید:

ollama init gemma3

از آن لحظه به بعد، می توانید تعامل با LLM را با موارد زیر آغاز کنید:

ollama query gemma3 "¿Cuál es la capital de Japón?"

اگر می خواهید از عملکردهای چندوجهی بهره ببرید، همچنین می توانید از تصاویر در جستارهای خود استفاده کنید:

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

برای اینکه خوب کار کند به چه چیزی نیاز دارید؟ اگرچه Ollama حداقل الزامات سختگیرانه ای را اعمال نمی کند، مدل های بزرگتر (مانند 27B) به حداقل 32 گیگابایت رم نیاز دارند. با 16 گیگابایت می توانید بدون مشکل با مدل 7B کار کنید و اگرچه استفاده از GPU اجباری نیست، اما در سرعت کمک زیادی می کند.

محتوای اختصاصی - اینجا را کلیک کنید  برنامه ویدیویی: مرزهای سفید برای همه در دسترس است

گزینه 2: از LM Studio استفاده کنید

LM Studio

LM Studio ابزار رایگان دیگری است که به شما امکان می دهد مدل های LLM را به صورت محلی از یک رابط گرافیکی نصب و اجرا کنید.. با ویندوز، macOS و لینوکس سازگار است و مزیت بزرگ آن این است که برای کار کردن به دانش فنی نیاز ندارد.

طراحان:

  1. LM Studio را از وب سایت رسمی خود دانلود کنید: lmstudio.ai.
  2. آن را نصب و اجرا کنید.
  3. روی نماد ذره بین که می گوید "Discover" کلیک کنید.
  4. "Gemma 3" را در موتور جستجو تایپ کنید تا مدل های موجود را ببینید.

قبل از نصب، بررسی کنید که آیا مدل با تجهیزات شما سازگار است یا خیر. اگر اخطار «احتمالاً برای این دستگاه خیلی بزرگ است» را مشاهده کردید، همچنان می‌توانید آن را نصب کنید، اما عملکرد بهینه تضمین نمی‌شود.

پس از دانلود یک مدل سازگار:

  • برای بارگیری روی "Load Model" کلیک کنید.
  • یا یک چت جدید باز کنید و مدل را از منوی کشویی انتخاب کنید.

بهترین چیز در مورد LM Studio این است که به عنوان نوعی ChatGPT محلی، آفلاین و به زبان شما عمل می کند.. در صورت تمایل می توانید چندین چت ایجاد کنید و مکالمات خود را ذخیره کنید. علاوه بر این، اگر گزینه Local Server را فعال کنید، می توانید آن را با برنامه های پایتون خود با استفاده از API سازگار با OpenAI ادغام کنید.

گزینه 3: استفاده از Google AI Studio (آنلاین)

استودیوی هوش مصنوعی گوگل

اگر نمی‌توانید یا نمی‌خواهید چیزی نصب کنید، می‌توانید از Gemma 3 مستقیماً از فضای ابری با Google AI Studio استفاده کنید.. نیازی به نصب نیست، اما اتصال اینترنت و حساب Google مورد نیاز است.

فقط باید بری aistudio.google.com و "Gemma 3" را از لیست مدل ها انتخاب کنید. از آن لحظه به بعد، می‌توانید با مدل به‌گونه‌ای شروع به چت کنید که گویی یک نسخه پیشرفته از Bard یا ChatGPT است، از جمله ورودی تصویر.

نصب ابری با NodeShift (اختیاری)

برای کسانی که به دنبال قدرت بیشتر یا استفاده حرفه ای از مدل هستند، امکان استفاده از سرویس های ابری مانند NodeShift وجود دارد. با آنها می‌توانید ماشین‌هایی با پردازنده‌های گرافیکی قدرتمند اجاره کنید و محیط ایده‌آل خود را برای اجرای Gemma 3 بدون محدودیت پیکربندی کنید.

محتوای اختصاصی - اینجا را کلیک کنید  چگونه فایل ها را به تخمین های Billage خود پیوست کنیم؟

مراحل اولیه NodeShift:

  1. ایجاد یک حساب کاربری در app.nodeshift.com.
  2. یک گره GPU سفارشی (به عنوان مثال با 2x RTX 4090) راه اندازی کنید.
  3. بسته به اینکه از Olama یا Transformers استفاده می کنید، یک تصویر از پیش پیکربندی شده با Ubuntu + Nvidia CUDA یا Jupyter Notebook انتخاب کنید.
  4. از طریق SSH متصل شوید و مدل را از خط فرمان نصب کنید.

این نوع نصب به شما امکان دسترسی به تنظیمات حرفه ای را می دهدایده‌آل برای مدل‌های آموزشی، ارزیابی عملکرد، و غیره. اگرچه برای کاربران خانگی ضروری نیست، اما برای کسانی که می‌خواهند عمیقا آزمایش کنند یا برنامه‌های کاربردی را روی LLM‌های پیشرفته بسازند مفید است.

الزامات سیستم و توصیه های فنی

همه مدل‌های Gemma 3 روی هر رایانه شخصی اجرا نمی‌شوند. در زیر یک مرجع کلی با توجه به نوع مدل برای شما قرار می دهیم:

  • به مدل های 1B تا 7B: حداقل 8 گیگابایت رم. آنها تقریباً روی هر رایانه شخصی مدرنی کار می کنند، حتی بدون GPU.
  • به مدل های 13B: توصیه می شود رم 16 تا 24 گیگابایت.
  • به مدل های 27B: مورد نیاز است حداقل 32 گیگابایت RAM و ترجیحا یک GPU اختصاصی.

داشتن رم بیشتر باعث افزایش سرعت عمل و جلوگیری از خطاهای ناشی از کمبود حافظه می شود. در حالی که Olama و LM Studio سعی می کنند از منابع به نحو احسن استفاده کنند، اما بستگی زیادی به سخت افزار شما دارد. علاوه بر این، در صورت استفاده از GPU به جای CPU، سرعت پاسخ به طور قابل توجهی بهبود می یابد.

نصب Gemma 3 در ویندوز 11 ساده تر از چیزی است که به نظر می رسد.. فرقی نمی‌کند که از Olama به دلیل سادگی، LM Studio برای رابط گرافیکی یا Google AI Studio برای بازی امن در فضای ابری استفاده کنید. نکته مهم این است که هر روش با سطوح مختلف تجربه و قابلیت های فنی سازگار است. اکنون که همه گزینه‌ها و چیزهایی را که برای شروع نیاز دارید می‌دانید، می‌توانید آزمایش این هوش مصنوعی محلی چشمگیر را از امروز آغاز کنید.