Google เปิดตัว Gemini Live พร้อมฟีเจอร์ AI แบบเรียลไทม์ใหม่

การปรับปรุงครั้งล่าสุด: 24/03/2025
ผู้แต่ง: Alberto navarro

  • Google ได้เปิดตัวการปรับปรุง Gemini Live อย่างเป็นทางการแล้ว โดยเปิดใช้งานการแชร์หน้าจอและใช้งานกล้องถ่ายทอดสดได้
  • ฟีเจอร์ใหม่เป็นส่วนหนึ่งของ Project Astra และกำลังเปิดตัวสู่อุปกรณ์ Android อย่างต่อเนื่อง
  • Gemini Live ช่วยให้คุณวิเคราะห์ภาพแบบเรียลไทม์และเสนอคำตอบตามเนื้อหาที่แสดง
  • ในตอนนี้ฟีเจอร์เหล่านี้พร้อมให้บริการแก่สมาชิก Gemini Advanced ในแผน Google One AI Premium เป็นหลัก

Google ยังคงก้าวหน้าในการนำปัญญาประดิษฐ์มาใช้ในบริการของตนและได้เริ่มดำเนินการ เปิดตัวฟีเจอร์ใหม่สำหรับ Gemini Liveผู้ช่วยของคุณที่ใช้ AI เครื่องมือเหล่านี้ซึ่งจะช่วยให้ การโต้ตอบแบบเรียลไทม์ผ่านกล้องสมาร์ทโฟนและการแชร์หน้าจอกำลังค่อยๆ มาถึงอุปกรณ์ Android แล้ว

ฟีเจอร์ใหม่ใน Gemini Live

ฟีเจอร์ใหม่ใน Gemini Live

ความสามารถใหม่ของ Gemini Live ได้รับการประกาศครั้งแรกที่งาน Mobile World Congress (MWC) โดยที่ Google ได้ประกาศว่าจะรองรับการแชร์หน้าจอและรองรับกล้องแบบเรียลไทม์ ตอนนี้, การอัปเดตนี้มาถึงอุปกรณ์บางเครื่องแล้วเพื่อให้ผู้ใช้สามารถสำรวจเพิ่มเติมเกี่ยวกับ วิธีใช้ Google Gemini บน iPhone.

เนื้อหาพิเศษ - คลิกที่นี่  วิธีทำให้ SimSimi พูดคำหยาบคาย

ด้วยตัวเลือกของ การแชร์หน้าจอผู้ใช้สามารถแสดงเนื้อหาของอุปกรณ์ของตนและร้องขอการตอบกลับตามสิ่งที่แสดงในรูปภาพได้ นอกจากนี้เทคโนโลยีของ Gemini ยังช่วยให้ ตีความและตอบคำถามเกี่ยวกับภาพที่ถ่ายด้วยกล้องแบบเรียลไทม์, การให้สิทธิ์ ประสบการณ์ผู้ช่วยด้านภาพที่ล้ำหน้ากว่า Google Assistant เวอร์ชันก่อนหน้ามาก.

การปรับใช้และความพร้อมใช้งานแบบก้าวหน้า

Google เปิดตัวฟีเจอร์ Gemini Live-2

ตามที่ Google ระบุ คุณสมบัติใหม่เหล่านี้จะมาถึงอย่างต่อเนื่อง เริ่มต้นด้วยผู้ใช้เครื่อง Pixel และเทอร์มินัลซีรีส์ Samsung Galaxy S25- อย่างไรก็ตาม ยังไม่มีวันวางจำหน่ายอย่างเป็นทางการบน iPhone

ขณะนี้มีรายงานการเปิดใช้งานครั้งแรกจาก ผู้ใช้สมัครใช้ Gemini Advanced ภายในแผน Google One AI Premium- ข้อมูลดังกล่าวบ่งชี้ว่า อย่างน้อยที่สุดในระยะเริ่มแรก คุณสมบัติเหล่านี้จะถูกจำกัดให้เฉพาะกลุ่มสมาชิกที่ได้รับการคัดเลือก ก่อนที่จะเปิดตัวทั่วโลก

Project Astra: อนาคตของ AI จาก Google

โครงการ Google Astra

การพัฒนาฟังก์ชั่นเหล่านี้เป็นส่วนหนึ่งของ โปรเจ็กต์แอสตร้าซึ่งเป็นโครงการริเริ่มของ Google ที่นำเสนอในงาน Google I/O 2024 โดยมุ่งหวังที่จะเสนอการตอบสนองทันทีตามสภาพแวดล้อมของผู้ใช้ เทคโนโลยีนี้ช่วยให้ AI สามารถวิเคราะห์ภาพสด จดจำวัตถุ และให้บริการ คำตอบที่แม่นยำยิ่งขึ้น ขึ้นอยู่กับบริบท

เนื้อหาพิเศษ - คลิกที่นี่  Alexa จะถูกนำมาใช้เพื่อรับคำตอบสำหรับคำถามทั่วไปหรือเพื่อค้นหาอินเทอร์เน็ตได้อย่างไร

ซึ่งจะเปิดประตูสู่การประยุกต์ใช้งานจริงที่หลากหลาย ตั้งแต่การจดจำรายการเสื้อผ้าไปจนถึง วิเคราะห์วัตถุตกแต่ง หรือระบุสถานที่และโครงสร้างได้แบบเรียลไทม์ นอกจากนี้ Google ยังได้ระบุว่าจะดำเนินการรวม การปรับปรุง Gemini Live ในขณะที่โมเดล AI ของคุณมีการพัฒนา

การดำเนินงานและประสบการณ์ของผู้ใช้

เพื่อเข้าถึงคุณสมบัติเหล่านี้ ผู้ใช้สามารถ เปิดอินเทอร์เฟซ Gemini Live เต็มรูปแบบซึ่งคุณจะพบตัวเลือกในการเริ่มต้น ออกอากาศสด ผ่านกล้อง A ได้ถูกเพิ่มเข้าไปด้วย ปุ่มเฉพาะเพื่อสลับระหว่างกล้องหน้าและกล้องหลัง, อำนวยความสะดวกในการโต้ตอบกับผู้ช่วย

ในทำนองเดียวกัน ตัวเลือกการแชร์หน้าจอจะอยู่ถัดจากปุ่ม “ถามเกี่ยวกับหน้าจอ”ทำให้ Gemini Live สามารถแสดงหน้าจอได้ทั้งหมดแม้ว่า ขณะนี้ยังไม่มีการสนับสนุนการแชร์แอปพลิเคชันรายบุคคล.

ผู้ใช้บางคนบนโซเชียลเน็ตเวิร์กเริ่มบันทึกประสบการณ์ของตนกับเทคโนโลยีนี้ โดยเน้นย้ำถึง Gemini Live วิเคราะห์ภาพและให้คำตอบโดยละเอียดได้รวดเร็วแค่ไหน.

เนื้อหาพิเศษ - คลิกที่นี่  Microsoft กำลังก้าวไปข้างหน้าด้วยนวัตกรรม: ข้อมูลทั้งหมดเกี่ยวกับ Copilot และแอปพลิเคชันในปี 2025

ด้วยความก้าวหน้าเหล่านี้ Google ตอกย้ำความมุ่งมั่นในการใช้ปัญญาประดิษฐ์ การโต้ตอบตามเวลาจริงมุ่งมั่นที่จะเปลี่ยนแปลงวิธีที่ผู้ใช้สื่อสารกับอุปกรณ์ของตนและรับข้อมูล

วิธีใช้ Google Gemini บน iPhone-5
บทความที่เกี่ยวข้อง:
คำแนะนำฉบับสมบูรณ์เกี่ยวกับการใช้ Google Gemini บน iPhone