Google ทดสอบฟีเจอร์พอดแคสต์ที่สร้างด้วย AI ในผลการค้นหาเพื่อทำให้หัวข้อซับซ้อนเข้าใจง่ายขึ้น

ทีมบรรณาธิการ BigGo
Google ทดสอบฟีเจอร์พอดแคสต์ที่สร้างด้วย AI ในผลการค้นหาเพื่อทำให้หัวข้อซับซ้อนเข้าใจง่ายขึ้น

Google กำลังขยายความสามารถด้านปัญญาประดิษฐ์โดยนำหนึ่งในฟีเจอร์ AI ที่ประสบความสำเร็จมากที่สุดมาใช้โดยตรงในเครื่องมือค้นหาหลัก บริษัทได้เปิดตัวการทดลอง Search Labs ใหม่ที่รวม Audio Overviews เข้ากับผลการค้นหา ทำให้ผู้ใช้สามารถสร้างการสนทนาในรูปแบบพอดแคสต์เกี่ยวกับหัวข้อที่ซับซ้อนได้ด้วยการคลิกเพียงครั้งเดียว

ฟีเจอร์ Audio Overview ใหม่ทำงานอย่างไร

เมื่อผู้ใช้ค้นหาคำถามเชิงการศึกษา เช่น หูฟังตัดเสียงรบกวนทำงานอย่างไร? พวกเขาจะเห็นปุ่ม Generate Audio Overview ใต้ส่วน People also ask บนอุปกรณ์มือถือ การคลิกปุ่มนี้จะเรียกใช้โมเดล AI Gemini รุ่นล่าสุดของ Google เพื่อสร้างสรุปเสียงแบบสนทนาที่ใช้เวลาในการสร้างสูงสุด 40 วินาที แม้ว่าการทดสอบเบื้องต้นจะแสดงให้เห็นว่ากระบวนการนี้มักจะเสร็จสิ้นเร็วกว่ามาก ประมาณ 10 วินาทีสำหรับคำถามส่วนใหญ่

เนื้อหาที่สร้างขึ้นจะปรากฏในเครื่องเล่นที่ฝังอยู่ในผลการค้นหา พร้อมด้วยตัวควบคุมการเล่นมาตรฐาน รวมถึงตัวเลือกเล่น หยุดชั่วคราว ปิดเสียง และปรับความเร็ว เช่นเดียวกับการใช้งาน NotebookLM เดิม สรุปเสียงเหล่านี้มีผู้ดำเนินรายการ AI ที่สร้างขึ้นสองคนที่กระตือรือร้น ซึ่งจะพูดคุยเกี่ยวกับหัวข้อที่ค้นหาในลักษณะธรรมชาติและเป็นการสนทนาที่ทำให้ข้อมูลที่ซับซ้อนเข้าใจได้ง่ายขึ้น

ข้อมูลจำเพาะการสร้าง Audio Overview

คุณสมบัติ รายละเอียด
เวลาในการสร้าง สูงสุด 40 วินาที (โดยทั่วไปประมาณ 10 วินาที)
การรองรับภาษา ภาษาอังกฤษเท่านั้น (ในปัจจุบัน)
พื้นที่ให้บริการ สหรัฐอเมริกาเท่านั้น
การรองรับแพลตฟอร์ม อุปกรณ์มือถือ
การควบคุมเสียง เล่น หยุดชั่วคราว ปิดเสียง ปรับความเร็ว
การอ้างอิงแหล่งที่มา มีลิงก์ให้ด้านล่างเครื่องเล่น

การผสานรวมกับกลยุทธ์ AI ที่กว้างขึ้นของ Google

การผสานรวมการค้นหานี้แสดงถึงการขยายตัวที่สำคัญของ Audio Overviews ซึ่งได้รับความสนใจครั้งแรกในฐานะฟีเจอร์เด่นใน NotebookLM ผู้ช่วยวิจัยของ Google ในเดือนกันยายน 2024 เทคโนโลยีนี้ได้แพร่กระจายไปยังบริการอื่นๆ ของ Google รวมถึง Gemini และสร้างความประทับใจให้กับผู้ใช้อย่างต่อเนื่องด้วยความสามารถในการแปลงข้อความที่หนาแน่นให้เป็นเนื้อหาเสียงที่เข้าถึงได้

การใช้งานในการค้นหายังคงรักษาความน่าสนใจหลักของ Audio Overviews ในขณะที่ปรับให้เข้ากับบริบทที่แตกต่างของการค้นหาเว็บ ไม่เหมือนกับ NotebookLM ที่ทำงานกับเอกสารที่ผู้ใช้อัปโหลด เวอร์ชันการค้นหาจะสังเคราะห์ข้อมูลจากแหล่งเว็บหลายแหล่งเพื่อสร้างสรุปเสียงที่ครอบคลุม ผู้ใช้สามารถดูการอ้างอิงและลิงก์แหล่งที่มาได้โดยตรงใต้เครื่องเล่นเสียง เพื่อรักษาความโปร่งใสเกี่ยวกับที่มาของข้อมูลที่ AI รวบรวม

ไทม์ไลน์การขยายตัวของ Audio Overviews

  • กันยายน 2024: เปิดตัวใน NotebookLM
  • ฤดูใบไม้ผลิ 2024: เพิ่มเข้าไปใน Gemini
  • 13 มิถุนายน 2025: การทดลองใน Search Labs เริ่มต้นขึ้น
  • ปัจจุบัน: รองรับมากกว่า 50 ภาษาใน NotebookLM เทียบกับรองรับเฉพาะภาษาอังกฤษใน Search

ข้อจำกัดปัจจุบันและศักยภาพในอนาคต

ฟีเจอร์ทดลองปัจจุบันทำงานภายใต้ข้อจำกัดหลายประการที่อาจจำกัดผลกระทบในทันที การเข้าถึงถูกจำกัดเฉพาะคำค้นหาภาษาอังกฤษภายในสหรัฐอเมริกา และผู้ใช้ต้องเลือกเข้าร่วมโปรแกรม Search Labs เพื่อเข้าร่วมในขั้นตอนการทดสอบ Google เตือนว่าการนำทางออกจากหน้าค้นหาระหว่างการสร้างเสียงจะยกเลิกกระบวนการ ทำให้ผู้ใช้ต้องรอให้เสร็จสิ้น

แม้จะมีข้อจำกัดเหล่านี้ การผสานรวมแสดงถึงวิวัฒนาการที่สมเหตุสมผลของความสามารถ AI ของ Google บริษัทได้แสดงให้เห็นว่า Audio Overviews สามารถรองรับภาษามากกว่า 50 ภาษาใน NotebookLM ซึ่งบ่งชี้ว่าการรองรับภาษาที่กว้างขึ้นอาจมาถึงการใช้งานการค้นหาในที่สุด การวางฟีเจอร์นี้ใน Search Labs ยังบ่งชี้ถึงความมุ่งมั่นของ Google ในการรวบรวมความคิดเห็นของผู้ใช้ก่อนการเปิดตัวที่กว้างขึ้นที่อาจเกิดขึ้น

ผลกระทบต่อการบริโภคข้อมูล

การพัฒนานี้อาจเปลี่ยนแปลงวิธีที่ผู้คนบริโภคข้อมูลออนไลน์อย่างพื้นฐาน โดยเฉพาะสำหรับเนื้อหาการศึกษาและหัวข้อที่ซับซ้อน ด้วยการแปลงผลการค้นหาแบบข้อความดั้งเดิมให้เป็นการสนทนาเสียงที่น่าสนใจ Google กำลังตอบสนองความต้องการที่เพิ่มขึ้นสำหรับวิธีการเรียนรู้ที่เข้าถึงได้และสะดวกมากขึ้น รูปแบบพอดแคสต์ดึงดูดผู้ใช้ที่ชอบการเรียนรู้ผ่านการฟังหรือต้องการทำหลายอย่างพร้อมกันขณะบริโภคข้อมูล

ความสำเร็จของการทดลองนี้อาจมีอิทธิพลต่อวิธีที่เครื่องมือค้นหาอื่นๆ และบริษัท AI เข้าหาการส่งมอบข้อมูล ซึ่งอาจสร้างสรุปเสียงให้เป็นฟีเจอร์มาตรฐานในประสบการณ์การค้นหาสมัยใหม่