- Gemma 3 เป็นโมเดล LLM หลายโหมดที่มีความยืดหยุ่นสูงซึ่งพัฒนาโดย Google
- สามารถติดตั้งบน Windows 11 ได้โดยใช้ Ollama, LM Studio หรือใช้ผ่าน Google AI Studio
- ต้องใช้ทรัพยากรที่แปรผันขึ้นอยู่กับขนาดของโมเดล ตั้งแต่ RAM 8 GB ถึง 32 GB
- รวมคุณสมบัติขั้นสูงเช่นอินพุตภาพและโทเค็นบริบทสูงสุด 128 รายการ
รูปแบบภาษาโอเพนซอร์สได้รับการพัฒนาอย่างก้าวกระโดดและ ปัจจุบันคุณสามารถเพลิดเพลินกับพวกมันได้โดยตรงจากเครื่องคอมพิวเตอร์ส่วนตัวโดยไม่ต้องพึ่งพาบริการคลาวด์- ปัจจุบัน Gemma 3 เป็นหนึ่งในซอฟต์แวร์ที่มีแนวโน้มมากที่สุด ซึ่งเป็น LLM ใหม่ของ Google ที่ใช้เทคโนโลยี Gemini โดดเด่นในเรื่องความสามารถในการประมวลผลข้อความและรูปภาพ รวมถึงหน้าต่างบริบทขนาดใหญ่ที่มีโทเค็นมากถึง 128 รายการในเวอร์ชันขั้นสูง สำหรับข้อมูลเพิ่มเติมเกี่ยวกับรุ่นนี้ คุณสามารถอ่านบทความของเราได้ที่ การนำเสนอของ Gemma 3.
หากคุณใช้ Windows 11 และต้องการติดตั้ง Gemma 3 สำหรับการทดลองหรือแม้แต่การผลิตในเครื่องคุณมาถูกที่แล้ว มาดูรายละเอียดวิธีต่างๆ ที่เป็นไปได้ในการติดตั้งและใช้งานบนคอมพิวเตอร์ของคุณ รวมถึงตัวเลือกที่แนะนำมากที่สุด เช่น Ollama, LM Studio และทางเลือกบนคลาวด์อย่าง Google AI Studio นอกจากนี้เราจะกล่าวถึงข้อกำหนดทางเทคนิค ข้อดีของแต่ละวิธี และ วิธีการใช้ประโยชน์จากศักยภาพของปัญญาประดิษฐ์อันทรงพลังนี้ให้ได้มากที่สุด.
Gemma 3 คืออะไร และทำไมจึงต้องติดตั้ง?

Gemma 3 เป็นโมเดล LLM รุ่นที่สามที่เผยแพร่โดย Google ภายใต้ใบอนุญาตโอเพนซอร์ส- ต่างจากโซลูชันก่อนหน้าอย่าง Llama หรือ Mistral โซลูชันนี้ให้การสนับสนุนโดยตรงสำหรับการป้อนภาพ มีบริบทที่กว้างกว่ามาก และรองรับมากกว่า 140 ภาษา คุณสามารถเลือกได้จากรุ่นต่างๆ มากมายขึ้นอยู่กับความต้องการของคุณ ตั้งแต่พารามิเตอร์ 1B ถึง 27B:
- เจมมา 3:1B:โมเดลน้ำหนักเบาที่เหมาะสำหรับงานพื้นฐานและสภาพแวดล้อมที่มีทรัพยากรจำกัด
- เจมมา 3:4B:การสร้างสมดุลระหว่างประสิทธิภาพการทำงานและประสิทธิผลสำหรับการใช้งานระดับกลาง
- เจมมา 3:12B:แนะนำสำหรับการวิเคราะห์ที่ซับซ้อน การเขียนโปรแกรม และการประมวลผลหลายภาษา
- เจมมา 3:27B:ตัวเลือกที่ทรงพลังที่สุด ออกแบบมาเพื่อการใช้งานแบบเข้มข้นหลายโหมดพร้อมความจุตามบริบทที่ยอดเยี่ยม
ความเป็นไปได้ในการเรียกใช้โมเดลขั้นสูงดังกล่าวจากพีซีของคุณ มันเปลี่ยนกฎของเกมในแง่ความเป็นส่วนตัว ความเร็วในการตอบสนอง และการพึ่งพาบุคคลที่สาม คุณไม่จำเป็นต้องจ่ายค่าสมัครสมาชิกรายเดือนหรือสละข้อมูลของคุณอีกต่อไป สิ่งที่ต้องใช้คือการเตรียมตัวเพียงเล็กน้อยและความปรารถนาที่จะเรียนรู้ หากคุณต้องการทราบข้อมูลเพิ่มเติมเกี่ยวกับประโยชน์ของโมเดลเหล่านี้ โปรดอ่านบทความของเรา โมเดล AI น้ำหนักเปิด.
ตัวเลือกที่ 1: การติดตั้งด้วย Ollama

Ollama อาจเป็นวิธีที่ง่ายที่สุดในการรัน LLM เช่น Gemma 3 จาก Windows 11- อินเทอร์เฟซที่ใช้เทอร์มินัลช่วยให้คุณติดตั้งและรันโมเดลต่างๆ ได้ด้วยบรรทัดคำสั่งง่ายๆ นอกจากนี้ยังเข้ากันได้กับ macOS, Linux และ Windows ทำให้ใช้งานง่ายในสภาพแวดล้อมที่หลากหลาย
ขั้นตอนการติดตั้ง Ollama และเรียกใช้ Gemma 3:
- เข้าถึงเว็บไซต์อย่างเป็นทางการ: ollama.com.
- ดาวน์โหลดตัวติดตั้งสำหรับ Windows และรันมันเหมือนโปรแกรมอื่นๆ
- เปิด Command Prompt (CMD) หรือ PowerShell และตรวจสอบการติดตั้งด้วย:
ollama --version
หากทุกอย่างเป็นไปด้วยดี ตอนนี้คุณสามารถดาวน์โหลดเทมเพลต Gemma 3 ที่มีอยู่ได้ เพียงแค่รันคำสั่งใดคำสั่งหนึ่งเหล่านี้ขึ้นอยู่กับเทมเพลตที่คุณต้องการ:
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
เมื่อดาวน์โหลดแล้ว คุณสามารถเริ่มต้นโมเดลได้อย่างง่ายดาย- หากต้องการทำสิ่งนี้ ให้รัน:
ollama init gemma3
ตั้งแต่นั้นเป็นต้นมา คุณสามารถเริ่มโต้ตอบกับ LLM ได้โดย:
ollama query gemma3 "¿Cuál es la capital de Japón?"
หากคุณต้องการใช้ประโยชน์จากฟังก์ชั่นมัลติโหมดคุณยังสามารถใช้รูปภาพในแบบสอบถามของคุณได้:
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
คุณต้องการอะไรบ้างเพื่อให้มันทำงานได้ดี? แม้ว่า Ollama จะไม่ได้กำหนดข้อกำหนดขั้นต่ำที่เข้มงวด แต่รุ่นที่ใหญ่กว่า (เช่น 27B) ก็จะต้องใช้ RAM อย่างน้อย 32GB ด้วยความจุ 16GB คุณสามารถทำงานกับรุ่น 7B ได้โดยไม่มีปัญหา และถึงแม้การใช้ GPU จะไม่จำเป็นก็ตาม แต่ก็ช่วยเพิ่มความเร็วได้มาก
ตัวเลือกที่ 2: ใช้ LM Studio

LM Studio เป็นเครื่องมือฟรีอีกตัวหนึ่งที่ช่วยให้คุณสามารถติดตั้งและรันโมเดล LLM ในเครื่องจากอินเทอร์เฟซแบบกราฟิกได้- ใช้งานได้กับ Windows, macOS และ Linux และมีข้อดีคือไม่จำเป็นต้องมีความรู้ด้านเทคนิคในการใช้งาน
คำแนะนำ:
- ดาวน์โหลด LM Studio จากเว็บไซต์อย่างเป็นทางการ: lmstudio.ai.
- ติดตั้งและเรียกใช้
- คลิกที่ไอคอนแว่นขยายที่ระบุว่า “ค้นพบ”
- พิมพ์ “Gemma 3” ในเครื่องมือค้นหาเพื่อดูรุ่นที่มีอยู่
ก่อนติดตั้งให้ตรวจสอบว่ารุ่นนั้นเข้ากันได้กับอุปกรณ์ของคุณหรือไม่- หากคุณเห็นคำเตือนว่า “อาจใหญ่เกินไปสำหรับเครื่องนี้” คุณยังคงติดตั้งได้ แต่ไม่รับประกันประสิทธิภาพสูงสุด
เมื่อดาวน์โหลดรุ่นที่เข้ากันได้แล้ว:
- กดปุ่ม “โหลดโมเดล” เพื่อโหลด
- หรือเปิดห้องแชทใหม่และเลือกโมเดลจากเมนูแบบเลื่อนลง
สิ่งที่ดีที่สุดเกี่ยวกับ LM Studio คือการที่มันทำหน้าที่เป็น ChatGPT ในพื้นที่แบบออฟไลน์และในภาษาของคุณ- คุณสามารถสร้างการสนทนาหลายรายการและบันทึกการสนทนาของคุณได้หากคุณต้องการ นอกจากนี้ หากคุณเปิดใช้งานตัวเลือก "เซิร์ฟเวอร์ภายในเครื่อง" คุณสามารถรวมเข้ากับแอปพลิเคชัน Python ของคุณโดยใช้ API ที่เข้ากันได้กับ OpenAI
ตัวเลือกที่ 3: ใช้ Google AI Studio (ออนไลน์)

หากคุณไม่สามารถหรือไม่ต้องการติดตั้งอะไร คุณสามารถใช้ Gemma 3 ได้โดยตรงจากคลาวด์ด้วย Google AI Studio- ไม่จำเป็นต้องติดตั้ง แต่ต้องมีการเชื่อมต่ออินเทอร์เน็ตและมีบัญชี Google
คุณเพียงแค่ต้องไป aistudio.google.com และเลือก “Gemma 3” จากรายการโมเดล ตั้งแต่วินาทีนั้นเป็นต้นไป คุณสามารถเริ่มสนทนากับนางแบบได้เหมือนกับว่าเป็นเวอร์ชันขั้นสูงของ Bard หรือ ChatGPT รวมถึงอินพุตภาพด้วย
การติดตั้งบนคลาวด์ด้วย NodeShift (ทางเลือก)
สำหรับผู้ที่มองหาพลังที่มากขึ้นหรือต้องการใช้งานโมเดลอย่างมืออาชีพมีตัวเลือกในการใช้บริการคลาวด์ เช่น NodeShift คุณสามารถเช่าเครื่องจักรที่มี GPU อันทรงพลังและกำหนดค่าสภาพแวดล้อมในอุดมคติของคุณเพื่อรัน Gemma 3 ได้โดยไร้ข้อจำกัด
ขั้นตอนพื้นฐานใน NodeShift:
- สร้างบัญชีที่ app.nodeshift.com.
- เริ่ม GPU Node แบบกำหนดเอง (เช่น ด้วย RTX 2 4090x)
- เลือกภาพที่กำหนดค่าไว้ล่วงหน้าด้วย Ubuntu + Nvidia CUDA หรือ Jupyter Notebook ขึ้นอยู่กับว่าคุณจะใช้ Ollama หรือ Transformers
- เชื่อมต่อผ่าน SSH และติดตั้งโมเดลจากบรรทัดคำสั่ง
การติดตั้งประเภทนี้ช่วยให้คุณเข้าถึงการกำหนดค่าระดับมืออาชีพได้เหมาะสำหรับการฝึกอบรมโมเดล การประเมินผลการปฏิบัติงาน ฯลฯ แม้ว่าจะไม่จำเป็นสำหรับผู้ใช้ที่บ้าน แต่ก็มีประโยชน์สำหรับผู้ที่ต้องการทดลองใช้ในเชิงลึกหรือสร้างแอปพลิเคชันบน LLM ขั้นสูง
ความต้องการของระบบและคำแนะนำทางเทคนิค
ไม่ใช่ว่าโมเดล Gemma 3 ทั้งหมดจะทำงานบนพีซีเครื่องใดก็ได้- ด้านล่างนี้เราฝากข้อมูลอ้างอิงทั่วไปตามประเภทของรุ่น:
- ไปยัง รุ่น 1B ถึง 7B: ขั้นต่ำ 8 GB of RAM- สามารถใช้งานได้กับพีซีสมัยใหม่เกือบทุกเครื่อง แม้ว่าจะไม่มี GPU ก็ตาม
- ไปยัง แบบจำลอง 13B:ขอแนะนำ แรม 16GB ถึง 24GB.
- ไปยัง แบบจำลอง 27B: มีความจำเป็น RAM อย่างน้อย 32 GB และควรใช้ GPU เฉพาะ
การมี RAM มากขึ้นช่วยเพิ่มความเร็วในการทำงานและป้องกันข้อผิดพลาดอันเนื่องมาจากหน่วยความจำไม่เพียงพอ- แม้ว่า Ollama และ LM Studio พยายามใช้ทรัพยากรอย่างมีประสิทธิภาพ แต่ก็ขึ้นอยู่กับฮาร์ดแวร์ของคุณเป็นอย่างมาก นอกจากนี้ ความเร็วในการตอบสนองยังดีขึ้นอย่างมากหากใช้ GPU แทน CPU
การติดตั้ง Gemma 3 บน Windows 11 นั้นง่ายกว่าที่คิด- ไม่สำคัญว่าคุณจะตัดสินใจใช้ Ollama เนื่องจากความเรียบง่าย ใช้ LM Studio เพื่ออินเทอร์เฟซเชิงกราฟิก หรือใช้ Google AI Studio เพื่อเล่นอย่างปลอดภัยบนคลาวด์ สิ่งสำคัญคือวิธีการแต่ละวิธีต้องปรับให้เหมาะกับระดับประสบการณ์และความสามารถทางเทคนิคที่แตกต่างกัน ตอนนี้คุณรู้ตัวเลือกทั้งหมดแล้วและสิ่งที่คุณต้องมีในการเริ่มต้น คุณสามารถเริ่มทดลองใช้ปัญญาประดิษฐ์ท้องถิ่นอันน่าประทับใจนี้ได้แล้ววันนี้
ฉันเป็นผู้ชื่นชอบเทคโนโลยีที่เปลี่ยนความสนใจ "เกินบรรยาย" ของเขาให้กลายเป็นอาชีพ ฉันใช้เวลามากกว่า 10 ปีในชีวิตไปกับเทคโนโลยีล้ำสมัยและปรับแต่งโปรแกรมทุกประเภทด้วยความอยากรู้อยากเห็น ตอนนี้ฉันมีความเชี่ยวชาญในด้านเทคโนโลยีคอมพิวเตอร์และวิดีโอเกม เนื่องจากเป็นเวลากว่า 5 ปีแล้วที่ฉันเขียนให้กับเว็บไซต์ต่างๆ เกี่ยวกับเทคโนโลยีและวิดีโอเกม โดยสร้างบทความที่พยายามให้ข้อมูลที่คุณต้องการในภาษาที่ทุกคนเข้าใจได้
หากคุณมีคำถามใดๆ ความรู้ของฉันมีตั้งแต่ทุกอย่างที่เกี่ยวข้องกับระบบปฏิบัติการ Windows รวมถึง Android สำหรับโทรศัพท์มือถือ และความมุ่งมั่นของฉันคือคุณ ฉันยินดีสละเวลาสักครู่เสมอและช่วยคุณแก้ไขคำถามใดๆ ที่คุณอาจมีในโลกอินเทอร์เน็ตนี้