การเจาะช่องโหว่ฟีเจอร์ความจำของ ChatGPT: แฮกเกอร์สามารถขโมยข้อมูลผู้ใช้ได้อย่างไม่มีกำหนด

BigGo Editorial Team
การเจาะช่องโหว่ฟีเจอร์ความจำของ ChatGPT: แฮกเกอร์สามารถขโมยข้อมูลผู้ใช้ได้อย่างไม่มีกำหนด

ในการพัฒนาที่น่ากังวลสำหรับความปลอดภัยของ AI นักวิจัยได้ค้นพบช่องโหว่ใน ChatGPT ที่อาจทำให้แฮกเกอร์สามารถบันทึกเซสชันของผู้ใช้อย่างลับๆ และขโมยข้อมูลที่ละเอียดอ่อนได้อย่างไม่มีกำหนด การเจาะระบบนี้ใช้ประโยชน์จากฟีเจอร์ความจำระยะยาวใหม่ของ ChatGPT ซึ่งเปลี่ยนผู้ช่วย AI ยอดนิยมให้กลายเป็นสปายแวร์ที่อาจเป็นอันตราย

อธิบายช่องโหว่

นักวิจัยด้านความปลอดภัย Johann Rehberger ค้นพบว่าผู้โจมตีสามารถฉีดคำสั่งที่เป็นอันตรายเข้าไปในหน่วยความจำถาวรของ ChatGPT บนแอป macOS ได้ เมื่อฉีดเข้าไปแล้ว คำสั่งเหล่านี้จะสั่งให้ AI ส่งการสนทนาทั้งหมดในอนาคตไปยังเซิร์ฟเวอร์ระยะไกลที่ควบคุมโดยแฮกเกอร์อย่างลับๆ สิ่งที่ทำให้การเจาะระบบนี้อันตรายเป็นพิเศษคือความคงทนของมัน - คำสั่งที่เป็นอันตรายยังคงทำงานอยู่ในหลายเซสชันการแชท ซึ่งอาจทำให้เกิดการรั่วไหลของข้อมูลได้อย่างไม่มีกำหนด

วิธีการโจมตีทำงานอย่างไร

  1. ผู้โจมตีสร้างการฉีดคำสั่งที่มีคำสั่งอันตราย
  2. การฉีดนี้ถูกส่งผ่านรูปภาพหรือเว็บไซต์ที่ผู้ใช้ขอให้ ChatGPT วิเคราะห์
  3. คำสั่งที่เป็นอันตรายถูกเก็บไว้ในหน่วยความจำระยะยาวของ ChatGPT
  4. การสนทนาทั้งหมดที่ตามมาจะถูกส่งไปยังเซิร์ฟเวอร์ของผู้โจมตี แม้แต่ในเธรดแชทใหม่

ผลกระทบที่จำกัดและการบรรเทา

โชคดีที่ขอบเขตของช่องโหว่นี้ดูเหมือนจะจำกัด:

  • มันส่งผลกระทบเฉพาะแอป ChatGPT บน macOS ไม่ใช่อินเทอร์เฟซเว็บ
  • OpenAI ได้ออกการแก้ไขบางส่วนเพื่อป้องกันไม่ให้ ChatGPT ส่งข้อมูลไปยังเซิร์ฟเวอร์ภายนอก
  • ผู้ใช้สามารถปิดการใช้งานฟีเจอร์ความจำหรือตรวจสอบและลบความทรงจำที่เก็บไว้เป็นประจำ

การตอบสนองของ OpenAI

ในตอนแรก OpenAI ปฏิเสธรายงานของ Rehberger ว่าเป็นปัญหาด้านความปลอดภัยมากกว่าปัญหาด้านความมั่นคง อย่างไรก็ตาม หลังจากที่เขาได้ให้หลักฐานการพิสูจน์แนวคิด บริษัทได้ดำเนินการแก้ไขบางส่วน สิ่งนี้เน้นย้ำถึงความท้าทายอย่างต่อเนื่องในการรักษาความปลอดภัยของระบบ AI ในขณะที่พวกมันมีความซับซ้อนและถูกใช้งานอย่างแพร่หลายมากขึ้น

นัยสำคัญที่กว้างขึ้น

เหตุการณ์นี้เป็นการเตือนให้ระลึกถึงความเสี่ยงที่อาจเกิดขึ้นจากผู้ช่วย AI ที่เก็บข้อมูลผู้ใช้ เมื่อระบบเหล่านี้กลายเป็นส่วนหนึ่งของชีวิตประจำวันของเรามากขึ้น การรับรองความปลอดภัยของพวกมันจะมีความสำคัญอย่างยิ่ง ผู้ใช้ควรระมัดระวังและรอบคอบเมื่อมีปฏิสัมพันธ์กับ AI โดยเฉพาะอย่างยิ่งเมื่อจัดการกับข้อมูลที่ละเอียดอ่อน

การค้นพบช่องโหว่นี้เน้นย้ำถึงความสำคัญของการวิจัยด้านความปลอดภัยอย่างต่อเนื่องในสาขา AI ที่กำลังพัฒนาอย่างรวดเร็ว เมื่อเทคโนโลยีก้าวหน้าขึ้น วิธีการของเราในการปกป้องข้อมูลและความเป็นส่วนตัวของผู้ใช้ก็ต้องก้าวหน้าตามไปด้วย