- Google ได้เปิดตัวการปรับปรุง Gemini Live อย่างเป็นทางการแล้ว โดยเปิดใช้งานการแชร์หน้าจอและใช้งานกล้องถ่ายทอดสดได้
- ฟีเจอร์ใหม่เป็นส่วนหนึ่งของ Project Astra และกำลังเปิดตัวสู่อุปกรณ์ Android อย่างต่อเนื่อง
- Gemini Live ช่วยให้คุณวิเคราะห์ภาพแบบเรียลไทม์และเสนอคำตอบตามเนื้อหาที่แสดง
- ในตอนนี้ฟีเจอร์เหล่านี้พร้อมให้บริการแก่สมาชิก Gemini Advanced ในแผน Google One AI Premium เป็นหลัก
Google ยังคงก้าวหน้าในการนำปัญญาประดิษฐ์มาใช้ในบริการของตนและได้เริ่มดำเนินการ เปิดตัวฟีเจอร์ใหม่สำหรับ Gemini Liveผู้ช่วยของคุณที่ใช้ AI เครื่องมือเหล่านี้ซึ่งจะช่วยให้ การโต้ตอบแบบเรียลไทม์ผ่านกล้องสมาร์ทโฟนและการแชร์หน้าจอกำลังค่อยๆ มาถึงอุปกรณ์ Android แล้ว
ฟีเจอร์ใหม่ใน Gemini Live
ความสามารถใหม่ของ Gemini Live ได้รับการประกาศครั้งแรกที่งาน Mobile World Congress (MWC) โดยที่ Google ได้ประกาศว่าจะรองรับการแชร์หน้าจอและรองรับกล้องแบบเรียลไทม์ ตอนนี้, การอัปเดตนี้มาถึงอุปกรณ์บางเครื่องแล้วเพื่อให้ผู้ใช้สามารถสำรวจเพิ่มเติมเกี่ยวกับ วิธีใช้ Google Gemini บน iPhone.
ด้วยตัวเลือกของ การแชร์หน้าจอผู้ใช้สามารถแสดงเนื้อหาของอุปกรณ์ของตนและร้องขอการตอบกลับตามสิ่งที่แสดงในรูปภาพได้ นอกจากนี้เทคโนโลยีของ Gemini ยังช่วยให้ ตีความและตอบคำถามเกี่ยวกับภาพที่ถ่ายด้วยกล้องแบบเรียลไทม์, การให้สิทธิ์ ประสบการณ์ผู้ช่วยด้านภาพที่ล้ำหน้ากว่า Google Assistant เวอร์ชันก่อนหน้ามาก.
การปรับใช้และความพร้อมใช้งานแบบก้าวหน้า

ตามที่ Google ระบุ คุณสมบัติใหม่เหล่านี้จะมาถึงอย่างต่อเนื่อง เริ่มต้นด้วยผู้ใช้เครื่อง Pixel และเทอร์มินัลซีรีส์ Samsung Galaxy S25- อย่างไรก็ตาม ยังไม่มีวันวางจำหน่ายอย่างเป็นทางการบน iPhone
ขณะนี้มีรายงานการเปิดใช้งานครั้งแรกจาก ผู้ใช้สมัครใช้ Gemini Advanced ภายในแผน Google One AI Premium- ข้อมูลดังกล่าวบ่งชี้ว่า อย่างน้อยที่สุดในระยะเริ่มแรก คุณสมบัติเหล่านี้จะถูกจำกัดให้เฉพาะกลุ่มสมาชิกที่ได้รับการคัดเลือก ก่อนที่จะเปิดตัวทั่วโลก
Project Astra: อนาคตของ AI จาก Google

การพัฒนาฟังก์ชั่นเหล่านี้เป็นส่วนหนึ่งของ โปรเจ็กต์แอสตร้าซึ่งเป็นโครงการริเริ่มของ Google ที่นำเสนอในงาน Google I/O 2024 โดยมุ่งหวังที่จะเสนอการตอบสนองทันทีตามสภาพแวดล้อมของผู้ใช้ เทคโนโลยีนี้ช่วยให้ AI สามารถวิเคราะห์ภาพสด จดจำวัตถุ และให้บริการ คำตอบที่แม่นยำยิ่งขึ้น ขึ้นอยู่กับบริบท
ซึ่งจะเปิดประตูสู่การประยุกต์ใช้งานจริงที่หลากหลาย ตั้งแต่การจดจำรายการเสื้อผ้าไปจนถึง วิเคราะห์วัตถุตกแต่ง หรือระบุสถานที่และโครงสร้างได้แบบเรียลไทม์ นอกจากนี้ Google ยังได้ระบุว่าจะดำเนินการรวม การปรับปรุง Gemini Live ในขณะที่โมเดล AI ของคุณมีการพัฒนา
การดำเนินงานและประสบการณ์ของผู้ใช้
เพื่อเข้าถึงคุณสมบัติเหล่านี้ ผู้ใช้สามารถ เปิดอินเทอร์เฟซ Gemini Live เต็มรูปแบบซึ่งคุณจะพบตัวเลือกในการเริ่มต้น ออกอากาศสด ผ่านกล้อง A ได้ถูกเพิ่มเข้าไปด้วย ปุ่มเฉพาะเพื่อสลับระหว่างกล้องหน้าและกล้องหลัง, อำนวยความสะดวกในการโต้ตอบกับผู้ช่วย
ในทำนองเดียวกัน ตัวเลือกการแชร์หน้าจอจะอยู่ถัดจากปุ่ม “ถามเกี่ยวกับหน้าจอ”ทำให้ Gemini Live สามารถแสดงหน้าจอได้ทั้งหมดแม้ว่า ขณะนี้ยังไม่มีการสนับสนุนการแชร์แอปพลิเคชันรายบุคคล.
ผู้ใช้บางคนบนโซเชียลเน็ตเวิร์กเริ่มบันทึกประสบการณ์ของตนกับเทคโนโลยีนี้ โดยเน้นย้ำถึง Gemini Live วิเคราะห์ภาพและให้คำตอบโดยละเอียดได้รวดเร็วแค่ไหน.
ด้วยความก้าวหน้าเหล่านี้ Google ตอกย้ำความมุ่งมั่นในการใช้ปัญญาประดิษฐ์ การโต้ตอบตามเวลาจริงมุ่งมั่นที่จะเปลี่ยนแปลงวิธีที่ผู้ใช้สื่อสารกับอุปกรณ์ของตนและรับข้อมูล
ฉันเป็นผู้ชื่นชอบเทคโนโลยีที่เปลี่ยนความสนใจ "เกินบรรยาย" ของเขาให้กลายเป็นอาชีพ ฉันใช้เวลามากกว่า 10 ปีในชีวิตไปกับเทคโนโลยีล้ำสมัยและปรับแต่งโปรแกรมทุกประเภทด้วยความอยากรู้อยากเห็น ตอนนี้ฉันมีความเชี่ยวชาญในด้านเทคโนโลยีคอมพิวเตอร์และวิดีโอเกม เนื่องจากเป็นเวลากว่า 5 ปีแล้วที่ฉันเขียนให้กับเว็บไซต์ต่างๆ เกี่ยวกับเทคโนโลยีและวิดีโอเกม โดยสร้างบทความที่พยายามให้ข้อมูลที่คุณต้องการในภาษาที่ทุกคนเข้าใจได้
หากคุณมีคำถามใดๆ ความรู้ของฉันมีตั้งแต่ทุกอย่างที่เกี่ยวข้องกับระบบปฏิบัติการ Windows รวมถึง Android สำหรับโทรศัพท์มือถือ และความมุ่งมั่นของฉันคือคุณ ฉันยินดีสละเวลาสักครู่เสมอและช่วยคุณแก้ไขคำถามใดๆ ที่คุณอาจมีในโลกอินเทอร์เน็ตนี้