ชายชาวนอร์เวย์ยื่นฟ้องหลัง ChatGPT กล่าวหาเท็จว่าเขาฆ่าลูกของตัวเอง

BigGo Editorial Team
ชายชาวนอร์เวย์ยื่นฟ้องหลัง ChatGPT กล่าวหาเท็จว่าเขาฆ่าลูกของตัวเอง

การสร้างเรื่องเท็จของ AI ได้ข้ามเส้นที่น่ากังวลใหม่เมื่อ OpenAI เผชิญกับการดำเนินการทางกฎหมายเนื่องจาก ChatGPT แต่งเรื่องอาชญากรรมสยองขวัญ จะเกิดอะไรขึ้นเมื่อแชทบอท AI ไม่เพียงแต่แต่งเรื่องไร้สาระ แต่กล่าวหาเท็จว่าคุณฆ่าลูกของคุณเอง? ชายชาวนอร์เวย์คนหนึ่งพบว่าตัวเองตกอยู่ในสถานการณ์อันน่าหวาดกลัวนี้ ซึ่งก่อให้เกิดคำถามสำคัญเกี่ยวกับความรับผิดชอบของ AI และการคุ้มครองข้อมูล

เหตุการณ์ที่น่าตกใจ

Arve Hjalmar Holmen ชาวนอร์เวย์ รู้สึกช็อคเมื่อเขาตัดสินใจถาม ChatGPT เกี่ยวกับตัวเอง AI ตอบอย่างมั่นใจด้วยเรื่องราวที่แต่งขึ้นว่า Holmen ได้ฆ่าลูกชายสองคนของเขาและพยายามฆ่าลูกคนที่สาม แชทบอทยังระบุอย่างชัดเจนว่า Holmen ถูกตัดสินจำคุก 21 ปีสำหรับอาชญากรรมที่แต่งขึ้นเหล่านี้ สิ่งที่ทำให้การสร้างเรื่องเท็จนี้น่ากังวลเป็นพิเศษคือ ChatGPT ระบุรายละเอียดส่วนตัวหลายอย่างเกี่ยวกับชีวิตของ Holmen ได้อย่างถูกต้อง รวมถึงจำนวนและเพศของลูกๆ ของเขา อายุโดยประมาณ และบ้านเกิดของเขา ข้อมูลส่วนตัวที่ถูกต้องนี้ปรากฏพร้อมกับข้อกล่าวหาทางอาญาที่แต่งขึ้นทั้งหมด

รายละเอียดการแต่งเรื่องของ ChatGPT:

  • กล่าวเท็จว่า Arve Hjalmar Holmen ฆาตกรรมบุตรชายสองคน
  • กล่าวเท็จว่าเขาพยายามฆ่าบุตรชายคนที่สาม
  • กล่าวเท็จว่าเขาถูกจำคุกเป็นเวลา 21 ปี
  • ระบุข้อมูลส่วนตัวถูกต้อง รวมถึงจำนวนบุตร เพศของบุตร และบ้านเกิด

การตอบสนองทางกฎหมายและนัยสำคัญของ GDPR

หลังจากเหตุการณ์ที่น่าตกใจนี้ Holmen ได้ติดต่อกลุ่มรณรงค์สิทธิความเป็นส่วนตัว Noyb ซึ่งตอนนี้ได้ยื่นคำร้องเรียนอย่างเป็นทางการต่อ Datatilsynet หน่วยงานคุ้มครองข้อมูลของนอร์เวย์ คำร้องเรียนกล่าวหาว่า OpenAI ละเมิดข้อบังคับการคุ้มครองข้อมูลทั่วไป (GDPR) โดยเฉพาะมาตรา 5(1)(d) ซึ่งกำหนดให้บริษัทที่ประมวลผลข้อมูลส่วนบุคคลต้องตรวจสอบความถูกต้อง เมื่อข้อมูลไม่ถูกต้อง ข้อบังคับกำหนดให้ต้องแก้ไขหรือลบข้อมูลนั้น

บทความ GDPR ที่อ้างถึงในการร้องเรียน:

  • มาตรา 5(1)(d): กำหนดให้ข้อมูลส่วนบุคคลต้องถูกต้องและได้รับการแก้ไข/ลบหากไม่ถูกต้อง
  • มาตรา 15: ให้สิทธิบุคคลในการเข้าถึงข้อมูลส่วนบุคคลของตนเอง

ปัญหาความคงอยู่

แม้ว่าโมเดลพื้นฐานของ ChatGPT จะได้รับการอัปเดตแล้วและไม่ได้พูดซ้ำข้อกล่าวหาที่เป็นการหมิ่นประมาทเกี่ยวกับ Holmen อีกต่อไป แต่ Noyb โต้แย้งว่านี่ไม่ได้แก้ไขปัญหาพื้นฐาน ตามคำร้องเรียนของพวกเขา ข้อมูลที่ไม่ถูกต้องอาจยังคงเป็นส่วนหนึ่งของชุดข้อมูลในโมเดลภาษาขนาดใหญ่ เนื่องจาก ChatGPT นำข้อมูลผู้ใช้กลับเข้าไปในระบบเพื่อการฝึกฝน จึงไม่มีการรับประกันว่าข้อมูลเท็จได้ถูกลบออกจากโมเดลอย่างสมบูรณ์เว้นแต่จะมีการฝึกฝนใหม่ทั้งหมด ความไม่แน่นอนนี้ยังคงสร้างความทุกข์ให้กับ Holmen ซึ่งไม่เคยถูกกล่าวหาหรือตัดสินว่ามีความผิดในอาชญากรรมใดๆ

ปัญหาการปฏิบัติตามกฎระเบียบในวงกว้าง

คำร้องเรียนของ Noyb ยังเน้นย้ำถึงปัญหาที่กว้างขึ้นเกี่ยวกับการปฏิบัติตามมาตรา 15 ของ GDPR ของ ChatGPT ซึ่งให้สิทธิแก่บุคคลในการเข้าถึงข้อมูลส่วนบุคคลของพวกเขา ลักษณะของโมเดลภาษาขนาดใหญ่ทำให้เป็นไปไม่ได้เลยสำหรับผู้ใช้ที่จะเห็นหรือเรียกคืนข้อมูลทั้งหมดเกี่ยวกับตัวเองที่อาจถูกรวมเข้าไปในชุดข้อมูลการฝึกฝน ข้อจำกัดพื้นฐานนี้ก่อให้เกิดคำถามสำคัญว่าระบบ AI เช่น ChatGPT จะสามารถปฏิบัติตามกฎระเบียบการคุ้มครองข้อมูลที่มีอยู่ได้อย่างเต็มที่หรือไม่

การตอบสนองที่จำกัดของ OpenAI

ปัจจุบัน วิธีการของ OpenAI ในการจัดการกับการสร้างเรื่องเท็จประเภทนี้ดูเหมือนจะมีน้อยมาก บริษัทแสดงข้อความปฏิเสธความรับผิดชอบขนาดเล็กที่ด้านล่างของแต่ละเซสชันของ ChatGPT ระบุว่า ChatGPT อาจทำผิดพลาดได้ โปรดพิจารณาตรวจสอบข้อมูลสำคัญ นักวิจารณ์โต้แย้งว่านี่ไม่เพียงพออย่างน่าเศร้าเมื่อพิจารณาถึงอันตรายที่อาจเกิดขึ้นจากข้อมูลเท็จที่สร้างโดย AI โดยเฉพาะอย่างยิ่งเมื่อเกี่ยวข้องกับข้อกล่าวหาทางอาญาที่ร้ายแรงต่อบุคคลที่สามารถระบุตัวตนได้

OpenAI ยอมรับถึงข้อผิดพลาดที่อาจเกิดขึ้นในการตอบของ ChatGPT แม้ว่าจะมีผลกระทบร้ายแรงก็ตาม
OpenAI ยอมรับถึงข้อผิดพลาดที่อาจเกิดขึ้นในการตอบของ ChatGPT แม้ว่าจะมีผลกระทบร้ายแรงก็ตาม

ก้าวต่อไป

Noyb กำลังร้องขอให้หน่วยงานคุ้มครองข้อมูลของนอร์เวย์สั่งให้ OpenAI ลบข้อมูลที่ไม่ถูกต้องเกี่ยวกับ Holmen และตรวจสอบให้แน่ใจว่า ChatGPT ไม่สามารถสร้างเนื้อหาที่เป็นการหมิ่นประมาทคล้ายกันเกี่ยวกับผู้อื่นในอนาคต อย่างไรก็ตาม เนื่องจากลักษณะแบบกล่องดำของโมเดลภาษาขนาดใหญ่ การนำมาตรการป้องกันดังกล่าวมาใช้จึงเป็นความท้าทายทางเทคนิคที่สำคัญ เมื่อระบบ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้นเรื่อยๆ กรณีนี้ชี้ให้เห็นถึงความจำเป็นเร่งด่วนสำหรับกรอบการกำกับดูแลที่แข็งแกร่งมากขึ้นและโซลูชันทางเทคนิคเพื่อป้องกันไม่ให้การสร้างเรื่องเท็จของ AI ก่อให้เกิดอันตรายในโลกแห่งความเป็นจริงต่อบุคคล