ปัญญาประดิษฐ์ยังคงเปลี่ยนแปลงวิธีที่เราโต้ตอบกับเทคโนโลยี แต่ไม่ได้ดีขึ้นเสมอไป ฟีเจอร์ทดลอง AI Overviews ของ Google ได้ถูกตรวจสอบเนื่องจากข้อบกพร่องที่น่ากังวล: มันสร้างคำอธิบายที่เป็นเรื่องแต่งขึ้นอย่างมั่นใจสำหรับวลีและสำนวนที่ไม่เคยมีอยู่จริง ซึ่งทำให้เกิดคำถามสำคัญเกี่ยวกับความน่าเชื่อถือของผลการค้นหาที่ขับเคลื่อนด้วย AI
ปัญหาการสร้างข้อมูลเท็จ
AI Overviews ของ Google ซึ่งเป็นฟีเจอร์ทดลองที่ผสานเข้ากับ Google Search กำลังแสดงแนวโน้มที่น่าตกใจในการสร้างคำนิยามสำหรับวลีที่ไร้สาระหรือเป็นเรื่องแต่ง ผู้ใช้ได้ค้นพบว่าเพียงแค่พิมพ์คำสุ่มๆ รวมกันตามด้วยคำว่า meaning ในช่องค้นหา AI ของ Google จะให้คำอธิบายอย่างละเอียดและที่มาของวลีที่แต่งขึ้นมาทั้งหมดอย่างมั่นใจ พฤติกรรมนี้บั่นทอนวัตถุประสงค์พื้นฐานของเครื่องมือค้นหา—ที่ควรให้ข้อมูลที่ถูกต้องแทนที่จะเป็นเรื่องแต่งที่นำเสนอเสมือนเป็นความจริง
วิธีการที่ปัญหานี้เกิดขึ้น
กระบวนการนี้เรียบง่ายอย่างน่าประหลาดใจ เมื่อผู้ใช้ค้นหาวลีเช่น you can't lick a badger twice หรือ a duckdog never blinks twice และเพิ่มคำว่า meaning ในการค้นหา AI Overviews ของ Google จะสร้างคำอธิบายโดยละเอียดที่ฟังดูมีอำนาจสำหรับวลีที่ไร้สาระเหล่านี้ สิ่งที่ทำให้เป็นปัญหาอย่างยิ่งคือคำนิยามที่แต่งขึ้นเหล่านี้ปรากฏพร้อมกับผลการค้นหาที่ถูกต้อง โดยมีเพียงข้อความเตือนเล็กๆ ที่ระบุว่า Generative AI เป็นการทดลอง
ตัวอย่างของการปั้นข้อมูลของ AI:
- วลี: "You can't lick a badger twice" → คำอธิบายของ AI: ไม่สามารถหลอกคนเดิมได้สองครั้ง
- วลี: "A duckdog never blinks twice" → มีคำอธิบายที่ขัดแย้งกันหลายอย่างในการค้นหาที่แตกต่างกัน
- Google ติดฉลากให้กับภาพรวม AI เหล่านี้ว่าเป็น "experimental" แต่แสดงควบคู่ไปกับผลการค้นหาที่เป็นข้อเท็จจริง
การตอบสนองที่ไม่สม่ำเสมอ
เพิ่มความกังวลคือความไม่สม่ำเสมอของการตอบสนองของ AI เมื่อผู้ใช้ค้นหาสำนวนปลอมเดียวกันหลายครั้ง Google มักให้คำอธิบายที่แตกต่างกันโดยสิ้นเชิงในแต่ละการค้นหา ตัวอย่างเช่น ผู้ใช้คนหนึ่งค้นหา a duckdog never blinks twice หลายครั้งและได้รับการตีความที่แตกต่างกัน—ครั้งแรกบอกว่าหมายถึงสุนัขล่าสัตว์ที่มีสมาธิสูง จากนั้นอ้างว่าเป็นการอธิบายสิ่งที่เหลือเชื่อหรือเป็นไปไม่ได้ที่จะยอมรับ และสุดท้ายให้คำอธิบายอีกแบบที่แตกต่างกัน
การตอบสนองของ Google
Google ได้ยอมรับปัญหานี้ผ่านโฆษกของบริษัท โดยอธิบายว่าเมื่อผู้ใช้ป้อนการค้นหาที่ไร้สาระหรือ 'สมมติฐานที่ผิด' ระบบของพวกเขาจะพยายามค้นหาผลลัพธ์ที่เกี่ยวข้องตามเนื้อหาเว็บที่มีอยู่อย่างจำกัด บริษัทเรียกสถานการณ์เหล่านี้ว่า data voids ซึ่งเป็นความท้าทายสำหรับเครื่องมือค้นหาทั้งหมด Google อ้างว่าได้ปรับปรุงเพื่อจำกัด AI Overviews ไม่ให้ปรากฏในสถานการณ์ดังกล่าวเพื่อป้องกันไม่ให้เนื้อหาที่ทำให้เข้าใจผิดปรากฏขึ้น
คำตอบอย่างเป็นทางการของ Google: "เมื่อผู้คนค้นหาสิ่งที่ไร้สาระหรือมี 'ข้อสมมติฐานที่ผิด' ระบบของเราจะพยายามค้นหาผลลัพธ์ที่เกี่ยวข้องมากที่สุดจากเนื้อหาเว็บที่มีอยู่อย่างจำกัด นี่เป็นความจริงของการค้นหาโดยรวม และในบางกรณี AI Overviews จะทำงานเพื่อพยายามให้บริบทที่เป็นประโยชน์"
ผลกระทบในวงกว้าง
ข้อบกพร่องใน AI Overviews ของ Google สร้างความกังวลอย่างมากเกี่ยวกับความน่าเชื่อถือของเครื่องมือค้นหาที่ขับเคลื่อนด้วย AI เป็นเวลาหลายทศวรรษที่การใช้ Google เป็นคำที่เหมือนกับการตรวจสอบข้อเท็จจริงและการยืนยันข้อมูล หากผู้ใช้ไม่สามารถแยกแยะระหว่างข้อมูลที่เป็นความจริงและเรื่องแต่งที่สร้างโดย AI ที่นำเสนอด้วยความมั่นใจเท่ากัน ความไว้วางใจพื้นฐานในเครื่องมือค้นหาอาจถูกทำลายอย่างรุนแรง
ไม่ใช่ความผิดพลาดครั้งแรกของ AI
นี่ไม่ใช่ครั้งแรกที่คุณสมบัติ AI ของ Google ถูกวิจารณ์เรื่องการสร้างข้อมูลเท็จ เมื่อประมาณหนึ่งปีที่แล้ว AI Overviews กลายเป็นไวรัลเนื่องจากแนะนำสูตรอาหารแปลกๆ เช่น พิซซ่ากาว และสปาเก็ตตี้น้ำมันเบนซิน ลักษณะที่เกิดซ้ำของปัญหาเหล่านี้เน้นย้ำถึงความท้าทายที่ต่อเนื่องในการพัฒนาระบบ AI ที่เชื่อถือได้สำหรับการค้นคืนข้อมูลและการสรุป
อนาคตของความถูกต้องในการค้นหา
เมื่อ AI ถูกผสานเข้ากับฟังก์ชันการค้นหามากขึ้น ความสมดุลระหว่างนวัตกรรมและความแม่นยำยิ่งมีความสำคัญมากขึ้น ในขณะที่ AI สามารถเพิ่มประสบการณ์การค้นหาด้วยการให้บทสรุปที่รวดเร็วและข้อมูลเชิงบริบท เหตุการณ์เช่นนี้แสดงให้เห็นว่าเทคโนโลยียังคงมีข้อจำกัดที่สำคัญเมื่อต้องแยกแยะระหว่างข้อเท็จจริงกับเรื่องแต่ง สำหรับผู้ใช้ การรักษาความสงสัยที่ดีต่อเนื้อหาที่สร้างโดย AI ยังคงมีความสำคัญ โดยเฉพาะอย่างยิ่งเมื่อข้อมูลที่ให้มาดูผิดปกติหรือขาดการอ้างอิงที่ชัดเจน