ความขัดแย้งครั้งใหญ่: นิยาม Open AI ของ OSI จุดประเด็นถกเถียงเรื่องข้อกำหนดข้อมูลฝึกฝน

BigGo Editorial Team
ความขัดแย้งครั้งใหญ่: นิยาม Open AI ของ OSI จุดประเด็นถกเถียงเรื่องข้อกำหนดข้อมูลฝึกฝน

การลงคะแนนที่กำลังจะมีขึ้นของ Open Source Initiative (OSI) เกี่ยวกับนิยามของ Open Source AI ได้จุดประเด็นการถกเถียงอย่างดุเดือดในวงการเทคโนโลยี โดยเฉพาะประเด็นว่าข้อมูลที่ใช้ในการฝึกฝน (Training Data) ควรถือเป็นสิ่งจำเป็นหรือไม่สำหรับระบบ AI ที่จะถือว่าเป็น Open Source อย่างแท้จริง การอภิปรายนี้เผยให้เห็นความตึงเครียดระหว่างการนำไปปฏิบัติจริงและอุดมคติในภูมิทัศน์การพัฒนา AI ที่กำลังเปลี่ยนแปลง

ประเด็นขัดแย้งหลัก

จุดที่มีการโต้เถียงมากที่สุดของนิยามของ OSI คือการพิจารณาข้อมูลฝึกฝนในฐานะผลประโยชน์เพิ่มเติมมากกว่าข้อกำหนดที่จำเป็น การตัดสินใจนี้ได้แบ่งชุมชนออกเป็นสองฝ่าย:

ข้อโต้แย้งต่อจุดยืนของ OSI

  • การเปรียบเทียบกับไบนารี : นักพัฒนาจำนวนมากเห็นว่าโมเดล AI ที่ไม่มีข้อมูลฝึกฝนเทียบได้กับการแจกจ่ายไฟล์ไบนารีที่คอมไพล์แล้วโดยไม่มีซอร์สโค้ด พวกเขาเชื่อว่าข้อมูลฝึกฝนคือซอร์สโค้ดที่แท้จริงของระบบ AI
  • ความกังวลด้านการตรวจสอบ : หากไม่มีการเข้าถึงข้อมูลฝึกฝน จะเป็นไปไม่ได้เลยที่จะตรวจสอบระบบ AI เพื่อหาอคติ ช่องโหว่ด้านความปลอดภัย หรือช่องทางแอบแฝง
  • ผลกระทบด้านกฎระเบียบ : ผู้แสดงความคิดเห็นบางคนชี้ว่านิยามนี้อาจสร้างช่องโหว่อันตรายใน European AI Act ซึ่งยกเว้นข้อกำหนดการตรวจสอบบางอย่างสำหรับ AI แบบ Open Source

ข้อสนับสนุนจุดยืนของ OSI

  • ความเป็นจริงในทางปฏิบัติ : การฝึกฝนโมเดล AI สมัยใหม่มีค่าใช้จ่ายด้านการประมวลผลหลายร้อยล้านดอลลาร์ ทำให้การทำซ้ำอย่างสมบูรณ์เป็นไปไม่ได้ในทางปฏิบัติสำหรับผู้ใช้ส่วนใหญ่
  • การปฏิบัติในปัจจุบัน : แม้แต่นักพัฒนาต้นฉบับก็มักใช้การ Fine-tuning มากกว่าการฝึกฝนใหม่ทั้งหมดเมื่อต้องการดัดแปลงโมเดลที่มีอยู่
  • รูปแบบที่เหมาะสม : ผู้สนับสนุนเห็นว่าค่าน้ำหนักของโมเดลคือรูปแบบที่เหมาะสมสำหรับการดัดแปลงในทางปฏิบัติ ซึ่งตรงตามนิยามดั้งเดิมของ Open Source

จุดยืนของ Free Software Foundation

FSF มีจุดยืนที่ละเอียดอ่อนกว่า โดยยอมรับว่าแม้ข้อมูลฝึกฝนควรเป็นข้อกำหนดสำหรับเสรีภาพที่แท้จริง แต่อาจมีเหตุผลทางจริยธรรม (เช่น ความเป็นส่วนตัวทางการแพทย์) ที่ไม่สามารถเปิดเผยได้ พวกเขาแยกความแตกต่างระหว่างกรณีที่ไม่เสรีกับกรณีที่ผิดจริยธรรม โดยเสนอว่าการใช้ AI ที่ไม่เสรีอาจยอมรับได้ในทางจริยธรรมสำหรับหน้าที่สำคัญบางอย่างของสังคม

ข้อเสนอทางเลือก

มีแนวทางทางเลือกหลายประการที่เกิดขึ้นจากการอภิปรายในชุมชน:

  1. การสร้างหมวดหมู่แยกสำหรับระดับความเปิดเผยที่แตกต่างกัน
  2. การพัฒนากรอบการอนุญาตใหม่เฉพาะสำหรับโมเดล AI
  3. การละทิ้งคำว่า Open Source สำหรับระบบ AI และพัฒนาคำศัพท์ใหม่

มองไปข้างหน้า

การถกเถียงนี้ชี้ให้เห็นช่วงเวลาสำคัญในวิวัฒนาการของหลักการ Open Source เมื่อต้องเผชิญกับกระบวนทัศน์ทางเทคโนโลยีใหม่ โดยการลงคะแนนของคณะกรรมการ OSI มีกำหนดในวันที่ 27 ตุลาคม 2024 และมีแผนจะเผยแพร่ในวันที่ 28 ตุลาคม ผลลัพธ์อาจมีอิทธิพลอย่างมากต่อแนวทางที่อุตสาหกรรมใช้ในการพัฒนาและแจกจ่าย AI

ความขัดแย้งนี้ยังก่อให้เกิดคำถามสำคัญว่าแนวคิดดั้งเดิมเรื่องเสรีภาพของซอฟต์แวร์สามารถหรือควรนำมาใช้กับระบบ AI หรือไม่ หรือเราจำเป็นต้องมีกรอบแนวคิดใหม่ทั้งหมดเพื่อรับประกันความโปร่งใสและสิทธิของผู้ใช้ในยุคของปัญญาประดิษฐ์

หมายเหตุ: การถกเถียงนี้เกิดขึ้นท่ามกลางเทคโนโลยี AI และกรอบกฎระเบียบที่กำลังพัฒนาอย่างรวดเร็ว รวมถึง European AI Act และความคิดริเริ่มต่างๆ ของบริษัทในการพัฒนา AI