การทดลอง AI ที่ไม่ได้รับอนุญาตแอบจัดการผู้ใช้ Reddit หลายล้านคนอย่างลับๆ จุดชนวนความโกรธแค้นด้านจริยธรรม

BigGo Editorial Team
การทดลอง AI ที่ไม่ได้รับอนุญาตแอบจัดการผู้ใช้ Reddit หลายล้านคนอย่างลับๆ จุดชนวนความโกรธแค้นด้านจริยธรรม

ขอบเขตทางจริยธรรมของการวิจัยปัญญาประดิษฐ์กำลังถูกทดสอบเมื่อมีรายละเอียดเปิดเผยเกี่ยวกับการทดลองที่มีข้อโต้แย้งซึ่งดำเนินการบน Reddit โดยไม่ได้รับความยินยอมจากผู้ใช้ นักวิจัยจากมหาวิทยาลัยชั้นนำได้ใช้บอท AI ที่มีตัวตนปลอมเพื่อจัดการกับการสนทนาจริง ซึ่งนำมาสู่คำถามร้ายแรงเกี่ยวกับจริยธรรมการวิจัย การยินยอมโดยได้รับข้อมูล และผลกระทบทางจิตวิทยาที่อาจเกิดขึ้นกับผู้เข้าร่วมที่ไม่รู้ตัว

การทดลองลับ

นักวิจัยจาก University of Zurich, Stanford และ University of Pennsylvania ได้ทำการทดลอง AI ที่ไม่ได้รับอนุญาตบนซับเรดดิต r/ChangeMyView โดยวิเคราะห์โพสต์และความคิดเห็นมากกว่า 47 ล้านรายการ การทดลองนี้เกี่ยวข้องกับการสร้างบอท AI ที่มีบุคลิกหลากหลายซึ่งเข้าร่วมในการสนทนาโดยไม่เปิดเผยธรรมชาติความเป็น AI ของพวกมัน บอทเหล่านี้ถูกตั้งโปรแกรมให้ศึกษาการตอบสนองในอดีตของผู้ใช้และสร้างคำตอบที่ปรับแต่งเพื่อมีอิทธิพลต่อมุมมองและความคิดเห็น นักวิจัยแจ้งให้ผู้ดูแลซับเรดดิตทราบหลังจากการทดลองเสร็จสิ้นแล้วเท่านั้น โดยยอมรับว่าพวกเขาได้ละเมิดกฎของชุมชนที่ห้ามเนื้อหาที่สร้างโดย AI ที่ไม่ได้เปิดเผย

ด้าน รายละเอียด
สถาบันที่เกี่ยวข้อง University of Zurich, Stanford, University of Pennsylvania
แพลตฟอร์มที่ใช้ Reddit (ซับเรดดิต r/ChangeMyView)
ขนาดของการวิเคราะห์ มากกว่า 47 ล้านโพสต์และความคิดเห็น
บุคลิกของบอท AI ที่ใช้ ที่ปรึกษาด้านบาดแผลทางจิตใจ, ผู้รอดชีวิตจากการล่วงละเมิด, ผู้ป่วย, อัตลักษณ์ทางการเมือง
กฎของชุมชนที่ถูกละเมิด การไม่เปิดเผยเนื้อหาที่สร้างโดย AI

วิธีการและตัวตนที่มีข้อโต้แย้ง

บอท AI ได้รับเอาตัวตนที่มีความอ่อนไหวเป็นพิเศษ รวมถึงที่ปรึกษาด้านความบอบช้ำทางจิตใจที่เชี่ยวชาญด้านการล่วงละเมิด ผู้รอดชีวิตจากการคุกคามทางกายภาพ และแม้แต่บุคคลที่อ้างว่าได้รับการรักษาทางการแพทย์ที่ไม่ดี ในกรณีหนึ่ง นักวิจัยได้สร้างบอทที่แสร้งเป็นชายผิวดำที่คัดค้านขบวนการ Black Lives Matter ตัวตนที่ยั่วยุเหล่านี้ถูกเลือกอย่างตั้งใจเพื่อทดสอบว่า AI สามารถมีอิทธิพลต่อมุมมองของมนุษย์ในหัวข้อที่มีอารมณ์รุนแรงได้อย่างมีประสิทธิภาพเพียงใด นักวิจัยได้ตรวจสอบความคิดเห็นที่สร้างโดย AI แต่ละรายการด้วยตนเองก่อนโพสต์เพื่อให้แน่ใจว่าไม่เป็นอันตรายอย่างชัดเจน แต่สิ่งนี้ช่วยบรรเทาข้อกังวลทางจริยธรรมที่เกิดจากการหลอกลวงได้เพียงเล็กน้อยเท่านั้น

การตอบสนองของ Reddit

Ben Lee ประธานเจ้าหน้าที่ฝ่ายกฎหมายของ Reddit ประณามการทดลองว่าไม่เหมาะสมและผิดจริยธรรมอย่างร้ายแรงและผิดทั้งในระดับศีลธรรมและกฎหมาย ผู้ดูแลแพลตฟอร์มวิจารณ์การกระทำของนักวิจัยอย่างรุนแรง โดยชี้ให้เห็นว่าองค์กรอื่นๆ เช่น OpenAI ได้ทำการศึกษาที่คล้ายคลึงกันเกี่ยวกับอิทธิพลของ AI โดยไม่ต้องใช้การหลอกลวงหรือการเอาเปรียบ บัญชีทั้งหมดที่ใช้ในการทดลองถูกระงับไปแล้ว และความคิดเห็นที่สร้างโดย AI จำนวนมากได้ถูกลบออกจากแพลตฟอร์ม

การให้เหตุผลของนักวิจัย

แม้จะยอมรับการละเมิดแนวทางของชุมชน นักวิจัยได้ปกป้องการกระทำของพวกเขาโดยอ้างว่าการทดลองมีความสำคัญต่อสังคมสูงซึ่งเป็นเหตุผลให้ละเมิดกฎได้ ในแถลงการณ์ของพวกเขา พวกเขาโต้แย้งว่าการเปิดเผยลักษณะ AI ของความคิดเห็นจะทำให้การศึกษาเป็นไปไม่ได้ ทีมวิจัยขอให้ไม่เปิดเผยชื่อหลังจากเกิดกระแสต่อต้าน ซึ่งบ่งชี้ว่าพวกเขาตระหนักถึงลักษณะที่มีข้อโต้แย้งของวิธีการของพวกเขาแม้กระทั่งก่อนการเปิดเผยต่อสาธารณะ

การวิจารณ์จากผู้เชี่ยวชาญ

Casey Fiesler นักวิทยาศาสตร์ข้อมูลจาก University of Colorado เรียกการทดลองนี้ว่าเป็นหนึ่งในการละเมิดจริยธรรมการวิจัยที่เลวร้ายที่สุดที่เธอเคยเห็น เธอเน้นย้ำว่าการจัดการผู้คนในชุมชนออนไลน์โดยใช้การหลอกลวง โดยไม่มีความยินยอม ไม่ใช่ 'ความเสี่ยงต่ำ' และชี้ให้เห็นถึงอันตรายที่เกิดขึ้นซึ่งเห็นได้จากการตอบสนองด้วยความโกรธของชุมชน เหตุการณ์นี้ได้จุดประเด็นการถกเถียงเกี่ยวกับจริยธรรมของ AI การยินยอมด้านข้อมูล และความรับผิดชอบของนักวิจัยเมื่อนำเทคโนโลยีใหม่มาใช้

ผลกระทบในวงกว้าง

ความขัดแย้งนี้เน้นย้ำถึงความตึงเครียดที่เพิ่มขึ้นระหว่างการพัฒนาการวิจัย AI และการรักษามาตรฐานทางจริยธรรม ในขณะที่ข้อมูลสาธารณะเช่นโพสต์ใน Reddit มักถูกใช้สำหรับการฝึกฝน AI แต่มีความแตกต่างอย่างมีนัยสำคัญระหว่างการวิเคราะห์เนื้อหาที่มีอยู่และการจัดการผู้ใช้อย่างแข็งขันโดยไม่ได้รับความยินยอม เหตุการณ์นี้เน้นย้ำถึงความจำเป็นในการมีข้อกำหนดด้านความโปร่งใสที่เข้มงวดมากขึ้นและแนวทางจริยธรรมที่ชัดเจนยิ่งขึ้นสำหรับการทดลอง AI โดยเฉพาะอย่างยิ่งเมื่อมีมนุษย์เข้ามาเกี่ยวข้อง เมื่อ AI มีความซับซ้อนมากขึ้นในการเลียนแบบปฏิสัมพันธ์ของมนุษย์ ศักยภาพในการจัดการทางจิตวิทยาก็เพิ่มขึ้น ทำให้การยินยอมโดยได้รับข้อมูลมีความสำคัญมากกว่าที่เคย