- Gemma 3 ເປັນຕົວແບບ LLM ຫຼາຍແບບທີ່ມີຄວາມຍືດຫຍຸ່ນສູງ, ພັດທະນາໂດຍ Google
- ມັນສາມາດຖືກຕິດຕັ້ງຢູ່ໃນ Windows 11 ໂດຍໃຊ້ Ollama, LM Studio ຫຼືໃຊ້ຜ່ານ Google AI Studio
- ຮຽກຮ້ອງໃຫ້ມີຊັບພະຍາກອນທີ່ປ່ຽນແປງໂດຍອີງຕາມຂະຫນາດຂອງຕົວແບບ, ຈາກ 8 GB ເຖິງ 32 GB ຂອງ RAM
- ລວມເອົາຄຸນສົມບັດຂັ້ນສູງເຊັ່ນ: ການປ້ອນຂໍ້ມູນຮູບພາບ ແລະໂທເຄັນບໍລິບົດສູງສຸດ 128k
ຮູບແບບພາສາແຫຼ່ງເປີດໄດ້ພັດທະນາໄປຢ່າງກ້າວກະໂດດ, ແລະ ມື້ນີ້ມັນເປັນໄປໄດ້ທີ່ຈະມີຄວາມສຸກໃຫ້ເຂົາເຈົ້າໂດຍກົງຈາກຄອມພິວເຕີສ່ວນບຸກຄົນໂດຍບໍ່ມີການຂຶ້ນກັບການບໍລິການຟັງ.. ຫນຶ່ງໃນໂອກາດທີ່ສຸດໃນປະຈຸບັນແມ່ນ Gemma 3, LLM ໃຫມ່ຂອງ Google ໂດຍອີງໃສ່ເທກໂນໂລຍີ Gemini, ເຊິ່ງຢືນອອກສໍາລັບຄວາມສາມາດໃນການປຸງແຕ່ງຂໍ້ຄວາມແລະຮູບພາບ, ເຊັ່ນດຽວກັນກັບປ່ອງຢ້ຽມບໍລິບົດອັນໃຫຍ່ຫຼວງຂອງມັນເຖິງ 128k tokens ໃນຮຸ່ນຂັ້ນສູງຂອງມັນ. ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບການປ່ອຍນີ້, ທ່ານສາມາດໄປຢ້ຽມຢາມບົດຄວາມຂອງພວກເຮົາກ່ຽວກັບ ການນໍາສະເຫນີຂອງ Gemma 3.
ຖ້າທ່ານກໍາລັງໃຊ້ Windows 11 ແລະຊອກຫາການຕິດຕັ້ງ Gemma 3 ສໍາລັບການທົດລອງຫຼືແມ້ກະທັ້ງການຜະລິດໃນທ້ອງຖິ່ນ, ເຈົ້າມາຖືກບ່ອນແລ້ວ. ມາເບິ່ງລາຍລະອຽດທຸກວິທີທາງທີ່ເປັນໄປໄດ້ເພື່ອໃຫ້ມັນຂຶ້ນ ແລະເຮັດວຽກຢູ່ໃນຄອມພິວເຕີຂອງທ່ານ, ລວມທັງຕົວເລືອກທີ່ແນະນຳທີ່ສຸດເຊັ່ນ Ollama, LM Studio, ແລະຍັງເປັນທາງເລືອກທີ່ອີງໃສ່ຄລາວກັບ Google AI Studio. ນອກຈາກນັ້ນ, ພວກເຮົາຈະແກ້ໄຂຂໍ້ກໍານົດດ້ານວິຊາການ, ຄວາມໄດ້ປຽບຂອງແຕ່ລະວິທີການແລະ ເຮັດແນວໃດເພື່ອໃຫ້ໄດ້ຫຼາຍທີ່ສຸດຂອງທ່າແຮງຂອງປັນຍາປະດິດທີ່ມີປະສິດທິພາບນີ້.
Gemma 3 ແມ່ນຫຍັງແລະເປັນຫຍັງການຕິດຕັ້ງມັນ?

Gemma 3 ແມ່ນຮຸ່ນ LLM ລຸ້ນທີສາມທີ່ອອກໂດຍ Google ພາຍໃຕ້ໃບອະນຸຍາດແຫຼ່ງເປີດ.. ບໍ່ເຫມືອນກັບການແກ້ໄຂທີ່ຜ່ານມາເຊັ່ນ Llama ຫຼື Mistral, ມັນສະຫນອງການສະຫນັບສະຫນູນໂດຍກົງສໍາລັບການປ້ອນຮູບພາບ, ສະພາບການທີ່ກວ້າງກວ່າ, ແລະສະຫນັບສະຫນູນຫຼາຍກວ່າ 140 ພາສາ. ອີງຕາມຄວາມຕ້ອງການຂອງທ່ານ, ທ່ານສາມາດເລືອກຈາກຫຼາຍຮຸ່ນຂອງຕົວແບບຕັ້ງແຕ່ 1B ຫາ 27B ຕົວກໍານົດການ:
- Gemma 3:1B: ຮູບແບບທີ່ມີນ້ໍາຫນັກເບົາທີ່ເຫມາະສົມສໍາລັບວຽກງານພື້ນຖານແລະສະພາບແວດລ້ອມຈໍາກັດຊັບພະຍາກອນ.
- Gemma 3:4B: ການດຸ່ນດ່ຽງການປະຕິບັດແລະປະສິດທິພາບສໍາລັບຄໍາຮ້ອງສະຫມັກລະດັບປານກາງ.
- Gemma 3:12B: ແນະນໍາສໍາລັບການວິເຄາະສະລັບສັບຊ້ອນ, ການຂຽນໂປລແກລມແລະການປຸງແຕ່ງຫຼາຍພາສາ.
- Gemma 3:27B: ທາງເລືອກທີ່ມີປະສິດທິພາບທີ່ສຸດ, ອອກແບບມາສໍາລັບການນໍາໃຊ້ແບບສຸມ, multimodal ທີ່ມີຄວາມສາມາດບໍລິບົດທີ່ຍິ່ງໃຫຍ່.
ຄວາມເປັນໄປໄດ້ຂອງການເຮັດວຽກດັ່ງກ່າວແບບພິເສດຈາກ PC ຂອງທ່ານ ມັນປ່ຽນແປງກົດລະບຽບຂອງເກມໃນແງ່ຂອງຄວາມເປັນສ່ວນຕົວ, ຄວາມໄວການຕອບສະຫນອງ, ແລະການເອື່ອຍອີງໃສ່ບຸກຄົນທີສາມ. ທ່ານບໍ່ ຈຳ ເປັນຕ້ອງຈ່າຍຄ່າການສະໝັກໃຊ້ລາຍເດືອນ ຫຼື ຍົກເລີກຂໍ້ມູນຂອງທ່ານ. ທັງຫມົດມັນໃຊ້ເວລາເປັນການກະກຽມພຽງເລັກນ້ອຍແລະຄວາມປາຖະຫນາທີ່ຈະຮຽນຮູ້. ຖ້າທ່ານຕ້ອງການຮູ້ເພີ່ມເຕີມກ່ຽວກັບຜົນປະໂຫຍດຂອງຕົວແບບເຫຼົ່ານີ້, ໃຫ້ກວດເບິ່ງບົດຄວາມຂອງພວກເຮົາກ່ຽວກັບ ແບບ AI ນ້ໍາຫນັກເປີດ.
ທາງເລືອກ 1: ການຕິດຕັ້ງກັບ Ollama

Ollama ແມ່ນອາດຈະເປັນວິທີທີ່ງ່າຍທີ່ສຸດທີ່ຈະດໍາເນີນການ LLM ເຊັ່ນ Gemma 3 ຈາກ Windows 11. ອິນເຕີເຟດທີ່ອີງໃສ່ terminal ຂອງມັນຊ່ວຍໃຫ້ທ່ານສາມາດຕິດຕັ້ງແລະແລ່ນຕົວແບບທີ່ມີເສັ້ນຄໍາສັ່ງງ່າຍດາຍ. ນອກຈາກນັ້ນ, ມັນເຂົ້າກັນໄດ້ກັບ macOS, Linux, ແລະ Windows, ເຮັດໃຫ້ມັນງ່າຍຕໍ່ການໃຊ້ໃນສະພາບແວດລ້ອມຕ່າງໆ.
ຂັ້ນຕອນການຕິດຕັ້ງ Ollama ແລະແລ່ນ Gemma 3:
- ເຂົ້າເຖິງເວັບໄຊທ໌ທາງການ: ollama.com.
- ດາວໂຫລດຕົວຕິດຕັ້ງສໍາລັບ Windows ແລະດໍາເນີນການມັນຄືກັບໂຄງການອື່ນໆ.
- ເປີດ Command Prompt (CMD) ຫຼື PowerShell ແລະກວດສອບການຕິດຕັ້ງດ້ວຍ:
ollama --version
ຖ້າທຸກຢ່າງດີ, ດຽວນີ້ເຈົ້າສາມາດດາວໂຫຼດແມ່ແບບ Gemma 3 ໃດໆກໍໄດ້. ພຽງແຕ່ດໍາເນີນການຫນຶ່ງໃນຄໍາສັ່ງເຫຼົ່ານີ້ຂຶ້ນກັບແມ່ແບບທີ່ທ່ານຕ້ອງການ:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
ເມື່ອດາວໂຫລດແລ້ວ, ທ່ານສາມາດເລີ່ມຕົ້ນຮູບແບບໄດ້ຢ່າງງ່າຍດາຍ.. ເພື່ອເຮັດສິ່ງນີ້, ດໍາເນີນການ:
ollama init gemma3
ຕັ້ງແຕ່ນັ້ນມາ, ທ່ານສາມາດເລີ່ມຕົ້ນການພົວພັນກັບ LLM ໄດ້ໂດຍ:
ollama query gemma3 "¿Cuál es la capital de Japón?"
ຖ້າທ່ານຕ້ອງການໃຊ້ປະໂຍດຈາກຫນ້າທີ່ multimodal, ທ່ານຍັງສາມາດໃຊ້ຮູບພາບໃນການສອບຖາມຂອງທ່ານ:
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
ທ່ານຕ້ອງການຫຍັງເພື່ອເຮັດໃຫ້ມັນເຮັດວຽກໄດ້ດີ? ເຖິງແມ່ນວ່າ Ollama ບໍ່ໄດ້ກໍານົດຄວາມຕ້ອງການຂັ້ນຕ່ໍາທີ່ເຄັ່ງຄັດ, ຮູບແບບຂະຫນາດໃຫຍ່ (ເຊັ່ນ: 27B) ຕ້ອງການຢ່າງຫນ້ອຍ 32GB ຂອງ RAM. ດ້ວຍ 16GB ທ່ານສາມາດເຮັດວຽກໂດຍບໍ່ມີບັນຫາກັບຕົວແບບ 7B, ແລະເຖິງແມ່ນວ່າການນໍາໃຊ້ GPU ແມ່ນບໍ່ຈໍາເປັນ, ມັນຊ່ວຍຫຼາຍໃນຄວາມໄວ.
ທາງເລືອກ 2: ໃຊ້ LM Studio

LM Studio ເປັນເຄື່ອງມືຟຣີອີກອັນໜຶ່ງທີ່ຊ່ວຍໃຫ້ທ່ານສາມາດຕິດຕັ້ງ ແລະເປີດໃຊ້ຕົວແບບ LLM ຢູ່ໃນທ້ອງຖິ່ນໄດ້ຈາກການໂຕ້ຕອບແບບກຣາຟິກ.. ມັນເຂົ້າກັນໄດ້ກັບ Windows, macOS ແລະ Linux, ແລະປະໂຫຍດອັນໃຫຍ່ຫຼວງຂອງມັນແມ່ນມັນບໍ່ຈໍາເປັນຕ້ອງມີຄວາມຮູ້ດ້ານວິຊາການເພື່ອປະຕິບັດງານ.
ຄຳ ແນະ ນຳ:
- ດາວໂຫລດ LM Studio ຈາກເວັບໄຊທ໌ທາງການຂອງຕົນ: lmstudio.ai.
- ຕິດຕັ້ງແລະແລ່ນມັນ.
- ໃຫ້ຄລິກໃສ່ຮູບສັນຍາລັກແກ້ວຂະຫຍາຍທີ່ເວົ້າວ່າ "Discover."
- ພິມ "Gemma 3" ເຂົ້າໄປໃນເຄື່ອງຈັກຊອກຫາເພື່ອເບິ່ງຮູບແບບທີ່ມີຢູ່.
ກ່ອນທີ່ຈະຕິດຕັ້ງ, ກວດເບິ່ງວ່າຮູບແບບທີ່ເຫມາະສົມກັບອຸປະກອນຂອງທ່ານ. ຖ້າເຈົ້າເຫັນຄຳເຕືອນວ່າ “ມີຂະໜາດໃຫຍ່ເກີນໄປສຳລັບເຄື່ອງນີ້,” ເຈົ້າຍັງສາມາດຕິດຕັ້ງມັນໄດ້, ແຕ່ປະສິດທິພາບສູງສຸດແມ່ນບໍ່ມີການຮັບປະກັນ.
ເມື່ອຮູບແບບທີ່ເຂົ້າກັນໄດ້ໄດ້ຖືກດາວໂຫຼດແລ້ວ:
- ກົດ “Load Model” ເພື່ອໂຫລດມັນ.
- ຫຼືເປີດການສົນທະນາໃໝ່ ແລະເລືອກຮູບແບບຈາກເມນູເລື່ອນລົງ.
ສິ່ງທີ່ດີທີ່ສຸດກ່ຽວກັບ LM Studio ແມ່ນວ່າມັນເຮັດຫນ້າທີ່ເປັນປະເພດຂອງ ChatGPT ທ້ອງຖິ່ນ, ອອບໄລນ໌ແລະໃນພາສາຂອງເຈົ້າ. ທ່ານສາມາດສ້າງການສົນທະນາຫຼາຍໆຄັ້ງແລະບັນທຶກການສົນທະນາຂອງທ່ານຖ້າທ່ານຕ້ອງການ. ນອກຈາກນັ້ນ, ຖ້າທ່ານເປີດໃຊ້ທາງເລືອກ "ເຄື່ອງແມ່ຂ່າຍທ້ອງຖິ່ນ", ທ່ານສາມາດປະສົມປະສານມັນກັບແອັບພລິເຄຊັນ Python ຂອງທ່ານໂດຍໃຊ້ OpenAI-compatible API.
ທາງເລືອກ 3: ໃຊ້ Google AI Studio (ອອນໄລນ໌)

ຖ້າຫາກວ່າທ່ານບໍ່ສາມາດຫຼືບໍ່ຕ້ອງການທີ່ຈະຕິດຕັ້ງຫຍັງ, ທ່ານສາມາດໃຊ້ Gemma 3 ໄດ້ໂດຍກົງຈາກຄລາວກັບ Google AI Studio. ບໍ່ຈຳເປັນຕ້ອງຕິດຕັ້ງ, ແຕ່ຕ້ອງເຊື່ອມຕໍ່ອິນເຕີເນັດ ແລະບັນຊີ Google.
ທ່ານພຽງແຕ່ຕ້ອງໄປ aistudio.google.com ແລະເລືອກ "Gemma 3" ຈາກບັນຊີລາຍຊື່ຂອງຕົວແບບ. ຕັ້ງແຕ່ນັ້ນມາ, ທ່ານສາມາດເລີ່ມສົນທະນາກັບຕົວແບບໄດ້ຄືກັບວ່າມັນເປັນເວີຊັນຂັ້ນສູງຂອງ Bard ຫຼື ChatGPT, ລວມທັງການໃສ່ຮູບພາບ.
ການຕິດຕັ້ງຄລາວດ້ວຍ NodeShift (ທາງເລືອກ)
ສໍາລັບຜູ້ທີ່ຊອກຫາພະລັງງານເພີ່ມເຕີມຫຼືເພື່ອປະຕິບັດຕົວແບບຢ່າງມືອາຊີບ, ມີທາງເລືອກໃນການໃຊ້ບໍລິການຟັງຄື NodeShift. ກັບພວກເຂົາ, ທ່ານສາມາດເຊົ່າເຄື່ອງຈັກທີ່ມີ GPU ທີ່ມີປະສິດທິພາບແລະກໍານົດສະພາບແວດລ້ອມທີ່ເຫມາະສົມຂອງທ່ານເພື່ອດໍາເນີນການ Gemma 3 ໂດຍບໍ່ມີຂໍ້ຈໍາກັດ.
ຂັ້ນຕອນພື້ນຖານໃນ NodeShift:
- ສ້າງບັນຊີຢູ່ app.nodeshift.com.
- ເລີ່ມ GPU Node ແບບກຳນົດເອງ (ເຊັ່ນ: 2x RTX 4090).
- ເລືອກຮູບທີ່ກຳນົດໄວ້ລ່ວງໜ້າດ້ວຍ Ubuntu + Nvidia CUDA ຫຼື Jupyter Notebook, ຂຶ້ນກັບວ່າເຈົ້າຈະໃຊ້ Ollama ຫຼື Transformers.
- ເຊື່ອມຕໍ່ຜ່ານ SSH ແລະຕິດຕັ້ງຕົວແບບຈາກເສັ້ນຄໍາສັ່ງ.
ປະເພດຂອງການຕິດຕັ້ງນີ້ໃຫ້ທ່ານເຂົ້າເຖິງການຕັ້ງຄ່າມືອາຊີບ, ເຫມາະສໍາລັບຮູບແບບການຝຶກອົບຮົມ, ການປະເມີນການປະຕິບັດ, ແລະອື່ນໆໃນຂະນະທີ່ບໍ່ຈໍາເປັນສໍາລັບຜູ້ໃຊ້ບ້ານ, ມັນເປັນປະໂຫຍດສໍາລັບຜູ້ທີ່ຕ້ອງການທົດລອງໃນຄວາມເລິກຫຼືສ້າງຄໍາຮ້ອງສະຫມັກໃນ LLMs ຂັ້ນສູງ.
ຄວາມຕ້ອງການລະບົບແລະຄໍາແນະນໍາດ້ານວິຊາການ
ບໍ່ແມ່ນທຸກລຸ້ນ Gemma 3 ຈະແລ່ນຢູ່ໃນເຄື່ອງຄອມພິວເຕີໃດໆ. ຂ້າງລຸ່ມນີ້ພວກເຮົາປ່ອຍໃຫ້ທ່ານອ້າງອີງທົ່ວໄປຕາມປະເພດຂອງຮູບແບບ:
- para ຮຸ່ນ 1B ຫາ 7B: ຕໍາ່ສຸດທີ່ 8 GB ຂອງ RAM. ພວກເຂົາເຮັດວຽກຢູ່ໃນເກືອບທຸກເຄື່ອງຄອມພິວເຕີທີ່ທັນສະໄຫມ, ເຖິງແມ່ນວ່າບໍ່ມີ GPU.
- para ຮຸ່ນ 13B: ແນະນໍາ RAM 16GB ຫາ 24GB.
- para ຮຸ່ນ 27B: ມີຄວາມຈໍາເປັນ ຢ່າງຫນ້ອຍ 32 GB ຂອງ RAM ແລະມັກເປັນ GPU ສະເພາະ.
ການມີ RAM ຫຼາຍຂຶ້ນເຮັດໃຫ້ການເຮັດວຽກໄວຂຶ້ນ ແລະປ້ອງກັນຄວາມຜິດພາດເນື່ອງຈາກຂາດຄວາມຈຳ. ໃນຂະນະທີ່ Ollama ແລະ LM Studio ພະຍາຍາມໃຊ້ຊັບພະຍາກອນຢ່າງມີປະສິດທິພາບ, ມັນຈະຂຶ້ນກັບຮາດແວຂອງທ່ານຫຼາຍ. ນອກຈາກນັ້ນ, ຄວາມໄວໃນການຕອບສະຫນອງຈະປັບປຸງຢ່າງຫຼວງຫຼາຍຖ້າ GPU ຖືກນໍາໃຊ້ແທນ CPU.
ການຕິດຕັ້ງ Gemma 3 ໃນ Windows 11 ແມ່ນງ່າຍກວ່າທີ່ມັນເບິ່ງຄືວ່າ.. ມັນບໍ່ສໍາຄັນວ່າທ່ານຕັດສິນໃຈໃຊ້ Ollama ສໍາລັບຄວາມງ່າຍດາຍຂອງມັນ, LM Studio ສໍາລັບການໂຕ້ຕອບຮູບພາບຂອງມັນ, ຫຼື Google AI Studio ເພື່ອຫຼິ້ນມັນຢ່າງປອດໄພໃນຄລາວ. ສິ່ງທີ່ສໍາຄັນແມ່ນວ່າແຕ່ລະວິທີການປັບຕົວກັບລະດັບປະສົບການແລະຄວາມສາມາດດ້ານວິຊາການທີ່ແຕກຕ່າງກັນ. ໃນປັດຈຸບັນທີ່ທ່ານຮູ້ຈັກທາງເລືອກທັງຫມົດແລະສິ່ງທີ່ທ່ານຈໍາເປັນຕ້ອງເລີ່ມຕົ້ນ, ທ່ານສາມາດເລີ່ມຕົ້ນການທົດລອງກັບປັນຍາປະດິດທ້ອງຖິ່ນທີ່ຫນ້າປະທັບໃຈໃນມື້ນີ້.
ຂ້ອຍເປັນນັກເທັກໂນໂລຍີທີ່ກະຕືລືລົ້ນທີ່ໄດ້ຫັນຄວາມສົນໃຈ "geek" ຂອງລາວໄປສູ່ອາຊີບ. ຂ້າພະເຈົ້າໄດ້ໃຊ້ເວລາຫຼາຍກ່ວາ 10 ປີຂອງຊີວິດຂອງຂ້າພະເຈົ້າໂດຍການນໍາໃຊ້ເຕັກໂນໂລຊີທີ່ທັນສະໄຫມແລະ tinkering ກັບທຸກປະເພດຂອງໂຄງການອອກຈາກ curiosity ອັນບໍລິສຸດ. ຕອນນີ້ຂ້ອຍມີຄວາມຊ່ຽວຊານດ້ານເທັກໂນໂລຍີຄອມພິວເຕີ ແລະເກມວີດີໂອ. ນີ້ແມ່ນຍ້ອນວ່າຫຼາຍກວ່າ 5 ປີທີ່ຂ້ອຍໄດ້ຂຽນສໍາລັບເວັບໄຊທ໌ຕ່າງໆກ່ຽວກັບເຕັກໂນໂລຢີແລະວິດີໂອເກມ, ການສ້າງບົດຄວາມທີ່ຊອກຫາເພື່ອໃຫ້ທ່ານມີຂໍ້ມູນທີ່ທ່ານຕ້ອງການໃນພາສາທີ່ທຸກຄົນເຂົ້າໃຈໄດ້.
ຖ້າທ່ານມີຄໍາຖາມໃດໆ, ຄວາມຮູ້ຂອງຂ້ອຍແມ່ນມາຈາກທຸກສິ່ງທຸກຢ່າງທີ່ກ່ຽວຂ້ອງກັບລະບົບປະຕິບັດການ Windows ເຊັ່ນດຽວກັນກັບ Android ສໍາລັບໂທລະສັບມືຖື. ແລະຄໍາຫມັ້ນສັນຍາຂອງຂ້າພະເຈົ້າແມ່ນກັບທ່ານ, ຂ້າພະເຈົ້າສະເຫມີເຕັມໃຈທີ່ຈະໃຊ້ເວລາສອງສາມນາທີແລະຊ່ວຍທ່ານແກ້ໄຂຄໍາຖາມໃດໆທີ່ທ່ານອາດຈະມີຢູ່ໃນໂລກອິນເຕີເນັດນີ້.