หากคุณเคยรู้สึกว่าการค้นหาสิ่งที่ต้องการจากภาพเพียงอย่างเดียวไม่เพียงพอ ตอนนี้ Google Lens กำลังขยายขอบเขตการใช้งานให้ก้าวไกลยิ่งขึ้น ด้วยการเพิ่มความสามารถใหม่ที่ให้คุณสามารถใช้ วิดีโอและเสียง เพื่อค้นหาข้อมูลได้! นี่คือการเปลี่ยนแปลงที่น่าสนใจที่จะทำให้การค้นหาผ่าน Google Lens นั้นมีความเป็นธรรมชาติและสะดวกสบายมากยิ่งขึ้น โดยฟีเจอร์นี้กำลังทยอยเปิดให้ใช้งานแล้วใน Search Labs บนระบบปฏิบัติการ Android และ iOS
ทำไมถึงต้องค้นหาผ่านวิดีโอ?
ฟีเจอร์นี้ถูกเปิดตัวครั้งแรกในงาน Google I/O เมื่อเดือนพฤษภาคมที่ผ่านมา โดยยกตัวอย่างสถานการณ์หนึ่งที่ Google นำเสนอ เช่น หากคุณไปเที่ยวชมพิพิธภัณฑ์สัตว์น้ำ แล้วต้องการรู้ข้อมูลเกี่ยวกับปลาที่กำลังว่ายอยู่ต่อหน้าคุณ แทนที่จะถ่ายภาพนิ่ง คุณสามารถเปิดแอป Google Lens แล้ว กดปุ่มชัตเตอร์ค้างไว้เพื่อเริ่มบันทึกวิดีโอ ขณะที่บันทึก คุณสามารถถามคำถามได้ทันที เช่น “ทำไมปลาพวกนี้ถึงว่ายรวมกัน?” หลังจากนั้น Google Lens จะนำข้อมูลทั้งจากวิดีโอและคำถามเสียงของคุณส่งไปประมวลผลด้วย AI โมเดลที่ชื่อว่า Gemini เพื่อให้คำตอบที่ตรงกับสิ่งที่คุณสงสัย
Gemini AI: ก้าวสำคัญของการวิเคราะห์วิดีโอ
Gemini เป็นโมเดล AI ที่ได้รับการพัฒนาขึ้นมาโดยเฉพาะสำหรับการทำความเข้าใจข้อมูลที่ได้จากวิดีโอ ฟีเจอร์นี้ทำงานโดยการนำวิดีโอที่ถ่ายไว้มาแบ่งออกเป็น เฟรมรูปภาพหลาย ๆ เฟรม แล้วใช้เทคนิคการประมวลผลภาพเชิงคอมพิวเตอร์ที่ Google เคยใช้กับ Google Lens ก่อนหน้านี้ จากนั้น Gemini จะวิเคราะห์เฟรมต่าง ๆ ที่ได้รับมา เพื่อให้เข้าใจบริบทของวัตถุในแต่ละเฟรม และ รวมภาพทั้งหมดเข้าด้วยกันเพื่อประมวลผลออกมาเป็นคำตอบเดียวที่ครอบคลุมและแม่นยำ
ค้นหาด้วยเสียง: ฟีเจอร์ใหม่ที่ต้องลอง
นอกเหนือจากการค้นหาผ่านวิดีโอแล้ว Google Lens ยังเพิ่มความสามารถให้คุณสามารถ ถามคำถามด้วยเสียงจากรูปภาพ ได้อีกด้วย! คุณสามารถเล็งกล้องไปยังวัตถุที่ต้องการรู้ข้อมูล กดปุ่มชัตเตอร์ค้างไว้ และพูดคำถามได้ทันที เช่นเดียวกับการใช้วิดีโอ ซึ่งฟีเจอร์นี้จะช่วยให้การค้นหามีความสะดวกและเป็นธรรมชาติมากยิ่งขึ้น โดยไม่ต้องพิมพ์คำถามด้วยตัวเองเหมือนที่ผ่านมา อย่างไรก็ตาม การค้นหาผ่านเสียงนี้ยังรองรับเพียงภาษาอังกฤษเท่านั้นในช่วงเปิดตัว แต่มีแนวโน้มที่จะขยายไปยังภาษาอื่น ๆ ในอนาคต
ข้อจำกัดที่ต้องรู้
ถึงแม้ว่าเทคโนโลยีของ Google Lens จะล้ำหน้าไปอีกขั้น แต่ตอนนี้ยังมีข้อจำกัดอยู่บ้าง เช่น การใช้เสียงเพื่อค้นหาข้อมูลจากวิดีโอนั้นยัง ไม่รองรับการวิเคราะห์เสียงประกอบในวิดีโอ หากคุณกำลังพยายามระบุตัวนกที่ได้ยินเสียงร้อง หรือสัตว์ที่มีเสียงเฉพาะตัว Google กำลังทำการทดลองและวิจัยเพื่อเพิ่มความสามารถนี้ในอนาคตเช่นกัน
ข้อสรุป
ฟีเจอร์ใหม่ของ Google Lens เป็นก้าวสำคัญที่เปลี่ยนวิธีการค้นหาข้อมูลให้มีความหลากหลายและเป็นธรรมชาติมากยิ่งขึ้น ไม่ว่าจะเป็นการใช้ วิดีโอและเสียง เพื่อตอบโจทย์การค้นหาที่ซับซ้อน หรือการใช้ Gemini AI เพื่อวิเคราะห์ข้อมูลในเฟรมต่าง ๆ อย่างแม่นยำ ซึ่งจะช่วยเพิ่มความสะดวกในการค้นหาข้อมูลในสถานการณ์ต่าง ๆ ได้มากขึ้น ฟีเจอร์นี้จะเข้ามาช่วยให้การค้นหาของคุณเป็นเรื่องง่ายขึ้นและตอบสนองความต้องการได้ดียิ่งขึ้นกว่าเดิม