- Gemma 3 یک مدل LLM بسیار انعطاف پذیر و چندوجهی است که توسط گوگل توسعه یافته است
- می توان آن را بر روی ویندوز 11 با استفاده از Ollama، LM Studio نصب کرد یا از طریق Google AI Studio استفاده کرد
- نیاز به منابع متغیر بسته به اندازه مدل، از 8 گیگابایت تا 32 گیگابایت رم
- دارای ویژگی های پیشرفته ای مانند ورودی تصویر و تا 128 هزار توکن زمینه است
مدل های زبان منبع باز با جهش و مرز تکامل یافته اند و امروزه می توان بدون وابستگی به خدمات ابری، مستقیماً از رایانه شخصی از آنها لذت برد.. یکی از امیدوارکنندهترین موارد در حال حاضر Gemma 3، LLM جدید گوگل بر اساس فناوری Gemini است که به دلیل توانایی پردازش متن و تصاویر و همچنین به دلیل پنجره زمینه عظیم تا 128 هزار توکن در نسخههای پیشرفتهاش برجسته است. برای کسب اطلاعات بیشتر در مورد این نسخه، می توانید به مقاله ما در مورد مراجعه کنید ارائه Gemma 3.
اگر از ویندوز 11 استفاده می کنید و به دنبال نصب Gemma 3 برای آزمایش یا حتی تولید محلی هستید، شما به جای مناسب آمده اید. بیایید همه راههای ممکن برای راهاندازی و اجرای آن در رایانهتان را با جزئیات مرور کنیم، از جمله توصیهشدهترین گزینهها مانند Ollama، LM Studio، و همچنین یک جایگزین مبتنی بر ابر با Google AI Studio. علاوه بر این، به الزامات فنی، مزایای هر روش و چگونه از پتانسیل این هوش مصنوعی قدرتمند نهایت استفاده را ببریم.
Gemma 3 چیست و چرا آن را نصب کنید؟

Gemma 3 سومین نسل از مدل های LLM است که توسط گوگل تحت مجوز منبع باز منتشر شده است.. برخلاف راه حل های قبلی مانند Llama یا Mistral، پشتیبانی مستقیم از ورودی تصویر، زمینه بسیار گسترده تر و پشتیبانی از بیش از 140 زبان را ارائه می دهد. بسته به نیاز خود، می توانید از چندین نسخه از مدل از پارامترهای 1B تا 27B انتخاب کنید:
- جما 3:1B: مدل سبک وزن ایده آل برای کارهای اساسی و محیط های با منابع محدود.
- جما 3:4B: متعادل کردن عملکرد و کارایی برای کاربردهای متوسط.
- جما 3:12B: برای تجزیه و تحلیل پیچیده، برنامه نویسی و پردازش چند زبانه توصیه می شود.
- جما 3:27B: قدرتمندترین گزینه، طراحی شده برای مصارف فشرده و چندوجهی با ظرفیت زمینه ای زیاد.
امکان اجرای چنین مدل پیشرفته ای از رایانه شخصی شما قوانین بازی را از نظر حریم خصوصی، سرعت پاسخگویی و وابستگی به اشخاص ثالث تغییر می دهد. دیگر نیازی به پرداخت اشتراک ماهانه یا صرف نظر از داده های خود ندارید. تنها چیزی که لازم است کمی آمادگی و تمایل به یادگیری است. اگر می خواهید در مورد مزایای این مدل ها بیشتر بدانید، مقاله ما را در این مورد بررسی کنید مدل های هوش مصنوعی وزن باز.
گزینه 1: نصب با اوللاما

Ollama احتمالا ساده ترین راه برای اجرای LLM مانند Gemma 3 از ویندوز 11 است. رابط مبتنی بر ترمینال آن به شما امکان می دهد مدل ها را با یک خط فرمان ساده نصب و اجرا کنید. به علاوه، با macOS، Linux و Windows سازگار است و استفاده از آن را در محیط های مختلف آسان می کند.
مراحل نصب Olama و اجرای Gemma 3:
- دسترسی به وب سایت رسمی: olama.com.
- نصب کننده را برای ویندوز دانلود کنید و آن را مانند هر برنامه دیگری اجرا کنید.
- Command Prompt (CMD) یا PowerShell را باز کنید و نصب را با:
ollama --version
اگر همه چیز خوب پیش رفت، اکنون می توانید هر یک از قالب های موجود Gemma 3 را دانلود کنید. به سادگی یکی از این دستورات را بسته به قالبی که می خواهید اجرا کنید:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
پس از دانلود، می توانید به راحتی مدل را راه اندازی کنید.. برای انجام این کار، اجرا کنید:
ollama init gemma3
از آن لحظه به بعد، می توانید تعامل با LLM را با موارد زیر آغاز کنید:
ollama query gemma3 "¿Cuál es la capital de Japón?"
اگر می خواهید از عملکردهای چندوجهی بهره ببرید، همچنین می توانید از تصاویر در جستارهای خود استفاده کنید:
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
برای اینکه خوب کار کند به چه چیزی نیاز دارید؟ اگرچه Ollama حداقل الزامات سختگیرانه ای را اعمال نمی کند، مدل های بزرگتر (مانند 27B) به حداقل 32 گیگابایت رم نیاز دارند. با 16 گیگابایت می توانید بدون مشکل با مدل 7B کار کنید و اگرچه استفاده از GPU اجباری نیست، اما در سرعت کمک زیادی می کند.
گزینه 2: از LM Studio استفاده کنید

LM Studio ابزار رایگان دیگری است که به شما امکان می دهد مدل های LLM را به صورت محلی از یک رابط گرافیکی نصب و اجرا کنید.. با ویندوز، macOS و لینوکس سازگار است و مزیت بزرگ آن این است که برای کار کردن به دانش فنی نیاز ندارد.
طراحان:
- LM Studio را از وب سایت رسمی خود دانلود کنید: lmstudio.ai.
- آن را نصب و اجرا کنید.
- روی نماد ذره بین که می گوید "Discover" کلیک کنید.
- "Gemma 3" را در موتور جستجو تایپ کنید تا مدل های موجود را ببینید.
قبل از نصب، بررسی کنید که آیا مدل با تجهیزات شما سازگار است یا خیر. اگر اخطار «احتمالاً برای این دستگاه خیلی بزرگ است» را مشاهده کردید، همچنان میتوانید آن را نصب کنید، اما عملکرد بهینه تضمین نمیشود.
پس از دانلود یک مدل سازگار:
- برای بارگیری روی "Load Model" کلیک کنید.
- یا یک چت جدید باز کنید و مدل را از منوی کشویی انتخاب کنید.
بهترین چیز در مورد LM Studio این است که به عنوان نوعی ChatGPT محلی، آفلاین و به زبان شما عمل می کند.. در صورت تمایل می توانید چندین چت ایجاد کنید و مکالمات خود را ذخیره کنید. علاوه بر این، اگر گزینه Local Server را فعال کنید، می توانید آن را با برنامه های پایتون خود با استفاده از API سازگار با OpenAI ادغام کنید.
گزینه 3: استفاده از Google AI Studio (آنلاین)

اگر نمیتوانید یا نمیخواهید چیزی نصب کنید، میتوانید از Gemma 3 مستقیماً از فضای ابری با Google AI Studio استفاده کنید.. نیازی به نصب نیست، اما اتصال اینترنت و حساب Google مورد نیاز است.
فقط باید بری aistudio.google.com و "Gemma 3" را از لیست مدل ها انتخاب کنید. از آن لحظه به بعد، میتوانید با مدل بهگونهای شروع به چت کنید که گویی یک نسخه پیشرفته از Bard یا ChatGPT است، از جمله ورودی تصویر.
نصب ابری با NodeShift (اختیاری)
برای کسانی که به دنبال قدرت بیشتر یا استفاده حرفه ای از مدل هستند، امکان استفاده از سرویس های ابری مانند NodeShift وجود دارد. با آنها میتوانید ماشینهایی با پردازندههای گرافیکی قدرتمند اجاره کنید و محیط ایدهآل خود را برای اجرای Gemma 3 بدون محدودیت پیکربندی کنید.
مراحل اولیه NodeShift:
- ایجاد یک حساب کاربری در app.nodeshift.com.
- یک گره GPU سفارشی (به عنوان مثال با 2x RTX 4090) راه اندازی کنید.
- بسته به اینکه از Olama یا Transformers استفاده می کنید، یک تصویر از پیش پیکربندی شده با Ubuntu + Nvidia CUDA یا Jupyter Notebook انتخاب کنید.
- از طریق SSH متصل شوید و مدل را از خط فرمان نصب کنید.
این نوع نصب به شما امکان دسترسی به تنظیمات حرفه ای را می دهدایدهآل برای مدلهای آموزشی، ارزیابی عملکرد، و غیره. اگرچه برای کاربران خانگی ضروری نیست، اما برای کسانی که میخواهند عمیقا آزمایش کنند یا برنامههای کاربردی را روی LLMهای پیشرفته بسازند مفید است.
الزامات سیستم و توصیه های فنی
همه مدلهای Gemma 3 روی هر رایانه شخصی اجرا نمیشوند. در زیر یک مرجع کلی با توجه به نوع مدل برای شما قرار می دهیم:
- به مدل های 1B تا 7B: حداقل 8 گیگابایت رم. آنها تقریباً روی هر رایانه شخصی مدرنی کار می کنند، حتی بدون GPU.
- به مدل های 13B: توصیه می شود رم 16 تا 24 گیگابایت.
- به مدل های 27B: مورد نیاز است حداقل 32 گیگابایت RAM و ترجیحا یک GPU اختصاصی.
داشتن رم بیشتر باعث افزایش سرعت عمل و جلوگیری از خطاهای ناشی از کمبود حافظه می شود. در حالی که Olama و LM Studio سعی می کنند از منابع به نحو احسن استفاده کنند، اما بستگی زیادی به سخت افزار شما دارد. علاوه بر این، در صورت استفاده از GPU به جای CPU، سرعت پاسخ به طور قابل توجهی بهبود می یابد.
نصب Gemma 3 در ویندوز 11 ساده تر از چیزی است که به نظر می رسد.. فرقی نمیکند که از Olama به دلیل سادگی، LM Studio برای رابط گرافیکی یا Google AI Studio برای بازی امن در فضای ابری استفاده کنید. نکته مهم این است که هر روش با سطوح مختلف تجربه و قابلیت های فنی سازگار است. اکنون که همه گزینهها و چیزهایی را که برای شروع نیاز دارید میدانید، میتوانید آزمایش این هوش مصنوعی محلی چشمگیر را از امروز آغاز کنید.
من یک علاقه مند به فناوری هستم که علایق "گیک" خود را به یک حرفه تبدیل کرده ام. من بیش از 10 سال از زندگی خود را صرف استفاده از فناوری های پیشرفته و سرهم بندی کردن انواع برنامه ها از روی کنجکاوی کرده ام. اکنون در زمینه فناوری رایانه و بازی های ویدیویی تخصص دارم. این به این دلیل است که بیش از 5 سال است که برای وب سایت های مختلف در زمینه فناوری و بازی های ویدیویی می نویسم و مقالاتی را ایجاد می کنم که به دنبال ارائه اطلاعات مورد نیاز شما به زبانی قابل فهم برای همه هستند.
اگر سوالی دارید، دانش من از همه چیز مربوط به سیستم عامل ویندوز و همچنین اندروید برای تلفن های همراه است. و تعهد من به شماست، من همیشه حاضرم چند دقیقه وقت بگذارم و به شما کمک کنم تا هر سوالی را که ممکن است در این دنیای اینترنتی داشته باشید حل کنید.