การลงคะแนนที่กำลังจะมีขึ้นของ Open Source Initiative (OSI) เกี่ยวกับนิยามของ Open Source AI ได้จุดประเด็นการถกเถียงอย่างดุเดือดในวงการเทคโนโลยี โดยเฉพาะประเด็นว่าข้อมูลที่ใช้ในการฝึกฝน (Training Data) ควรถือเป็นสิ่งจำเป็นหรือไม่สำหรับระบบ AI ที่จะถือว่าเป็น Open Source อย่างแท้จริง การอภิปรายนี้เผยให้เห็นความตึงเครียดระหว่างการนำไปปฏิบัติจริงและอุดมคติในภูมิทัศน์การพัฒนา AI ที่กำลังเปลี่ยนแปลง
ประเด็นขัดแย้งหลัก
จุดที่มีการโต้เถียงมากที่สุดของนิยามของ OSI คือการพิจารณาข้อมูลฝึกฝนในฐานะผลประโยชน์เพิ่มเติมมากกว่าข้อกำหนดที่จำเป็น การตัดสินใจนี้ได้แบ่งชุมชนออกเป็นสองฝ่าย:
ข้อโต้แย้งต่อจุดยืนของ OSI
- การเปรียบเทียบกับไบนารี : นักพัฒนาจำนวนมากเห็นว่าโมเดล AI ที่ไม่มีข้อมูลฝึกฝนเทียบได้กับการแจกจ่ายไฟล์ไบนารีที่คอมไพล์แล้วโดยไม่มีซอร์สโค้ด พวกเขาเชื่อว่าข้อมูลฝึกฝนคือซอร์สโค้ดที่แท้จริงของระบบ AI
- ความกังวลด้านการตรวจสอบ : หากไม่มีการเข้าถึงข้อมูลฝึกฝน จะเป็นไปไม่ได้เลยที่จะตรวจสอบระบบ AI เพื่อหาอคติ ช่องโหว่ด้านความปลอดภัย หรือช่องทางแอบแฝง
- ผลกระทบด้านกฎระเบียบ : ผู้แสดงความคิดเห็นบางคนชี้ว่านิยามนี้อาจสร้างช่องโหว่อันตรายใน European AI Act ซึ่งยกเว้นข้อกำหนดการตรวจสอบบางอย่างสำหรับ AI แบบ Open Source
ข้อสนับสนุนจุดยืนของ OSI
- ความเป็นจริงในทางปฏิบัติ : การฝึกฝนโมเดล AI สมัยใหม่มีค่าใช้จ่ายด้านการประมวลผลหลายร้อยล้านดอลลาร์ ทำให้การทำซ้ำอย่างสมบูรณ์เป็นไปไม่ได้ในทางปฏิบัติสำหรับผู้ใช้ส่วนใหญ่
- การปฏิบัติในปัจจุบัน : แม้แต่นักพัฒนาต้นฉบับก็มักใช้การ Fine-tuning มากกว่าการฝึกฝนใหม่ทั้งหมดเมื่อต้องการดัดแปลงโมเดลที่มีอยู่
- รูปแบบที่เหมาะสม : ผู้สนับสนุนเห็นว่าค่าน้ำหนักของโมเดลคือรูปแบบที่เหมาะสมสำหรับการดัดแปลงในทางปฏิบัติ ซึ่งตรงตามนิยามดั้งเดิมของ Open Source
จุดยืนของ Free Software Foundation
FSF มีจุดยืนที่ละเอียดอ่อนกว่า โดยยอมรับว่าแม้ข้อมูลฝึกฝนควรเป็นข้อกำหนดสำหรับเสรีภาพที่แท้จริง แต่อาจมีเหตุผลทางจริยธรรม (เช่น ความเป็นส่วนตัวทางการแพทย์) ที่ไม่สามารถเปิดเผยได้ พวกเขาแยกความแตกต่างระหว่างกรณีที่ไม่เสรีกับกรณีที่ผิดจริยธรรม โดยเสนอว่าการใช้ AI ที่ไม่เสรีอาจยอมรับได้ในทางจริยธรรมสำหรับหน้าที่สำคัญบางอย่างของสังคม
ข้อเสนอทางเลือก
มีแนวทางทางเลือกหลายประการที่เกิดขึ้นจากการอภิปรายในชุมชน:
- การสร้างหมวดหมู่แยกสำหรับระดับความเปิดเผยที่แตกต่างกัน
- การพัฒนากรอบการอนุญาตใหม่เฉพาะสำหรับโมเดล AI
- การละทิ้งคำว่า Open Source สำหรับระบบ AI และพัฒนาคำศัพท์ใหม่
มองไปข้างหน้า
การถกเถียงนี้ชี้ให้เห็นช่วงเวลาสำคัญในวิวัฒนาการของหลักการ Open Source เมื่อต้องเผชิญกับกระบวนทัศน์ทางเทคโนโลยีใหม่ โดยการลงคะแนนของคณะกรรมการ OSI มีกำหนดในวันที่ 27 ตุลาคม 2024 และมีแผนจะเผยแพร่ในวันที่ 28 ตุลาคม ผลลัพธ์อาจมีอิทธิพลอย่างมากต่อแนวทางที่อุตสาหกรรมใช้ในการพัฒนาและแจกจ่าย AI
ความขัดแย้งนี้ยังก่อให้เกิดคำถามสำคัญว่าแนวคิดดั้งเดิมเรื่องเสรีภาพของซอฟต์แวร์สามารถหรือควรนำมาใช้กับระบบ AI หรือไม่ หรือเราจำเป็นต้องมีกรอบแนวคิดใหม่ทั้งหมดเพื่อรับประกันความโปร่งใสและสิทธิของผู้ใช้ในยุคของปัญญาประดิษฐ์
หมายเหตุ: การถกเถียงนี้เกิดขึ้นท่ามกลางเทคโนโลยี AI และกรอบกฎระเบียบที่กำลังพัฒนาอย่างรวดเร็ว รวมถึง European AI Act และความคิดริเริ่มต่างๆ ของบริษัทในการพัฒนา AI