มุมมองระดับโลกต่อการกำกับดูแล AI: นักการเมืองอังกฤษปฏิเสธทฤษฎี "นวัตกรรม vs การกำกับดูแล" ขณะที่มาเลเซียสำรวจแนวทางสำหรับวงการสื่อ

BigGo Editorial Team
มุมมองระดับโลกต่อการกำกับดูแล AI: นักการเมืองอังกฤษปฏิเสธทฤษฎี "นวัตกรรม vs การกำกับดูแล" ขณะที่มาเลเซียสำรวจแนวทางสำหรับวงการสื่อ

ในขณะที่ปัญญาประดิษฐ์ยังคงเปลี่ยนแปลงอุตสาหกรรมทั่วโลก รัฐบาลและหน่วยงานกำกับดูแลกำลังพยายามหาวิธีจัดการการนำไปใช้อย่างมีประสิทธิภาพ พัฒนาการล่าสุดในสหราชอาณาจักรและมาเลเซียแสดงให้เห็นถึงแนวทางที่แตกต่างกันในการกำกับดูแล AI โดยมีจุดร่วมคือการแสวงหาความสมดุลระหว่างนวัตกรรมและการใช้งานอย่างรับผิดชอบ

นักการเมืองอังกฤษท้าทายทฤษฎีที่ผิดระหว่างการกำกับดูแลและนวัตกรรม

Lord Chris Holmes of Richmond ได้ปฏิเสธแนวคิดที่ว่าประเทศต่างๆ ต้องเลือกระหว่างการกำกับดูแล AI และการส่งเสริมนวัตกรรมอย่างชัดเจน ในการกล่าวที่งานประชุม Fortune's Brainstorm AI ที่ลอนดอน เขาเรียกมุมมองนี้ว่าเป็นเรื่องไร้สาระอย่างสิ้นเชิงและเป็นการแบ่งแยกที่ผิดซึ่งรบกวนประเทศประชาธิปไตยมาหลายทศวรรษ Lord Holmes ซึ่งได้นำเสนอร่างกฎหมายความปลอดภัยด้าน AI ที่สำคัญต่อรัฐสภาอังกฤษ โต้แย้งว่าการกำกับดูแลที่เหมาะสมจะเป็นประโยชน์ต่อทุกคน ตั้งแต่นักนวัตกรรม นักลงทุน ไปจนถึงพลเมืองและผู้บริโภค

บุคคลสำคัญที่ถูกกล่าวถึง:

  • Lord Chris Holmes of Richmond: นักการเมืองอังกฤษผู้อยู่เบื้องหลังร่างกฎหมายความปลอดภัยด้าน AI
  • Lord Tim Clement-Jones: ผู้นำเสนอร่างกฎหมายระบบการตัดสินใจแบบอัลกอริทึมและอัตโนมัติสำหรับหน่วยงานรัฐ
  • Fahmi Fadzil: รัฐมนตรีกระทรวงการสื่อสารของมาเลเซีย
  • Navrina Singh: ผู้ก่อตั้ง/CEO ของ Credo AI
  • Betsabeh Madani-Hermann: หัวหน้าฝ่ายวิจัยระดับโลกของ Philips

มาตรฐานระหว่างประเทศกำลังได้รับความนิยมเป็นทางเลือกแทนการกำกับดูแลตามเขตอำนาจศาล

การถกเถียงเรื่องการกำกับดูแล AI มักจะมุ่งเน้นไปที่ความแตกต่างทางภูมิศาสตร์ โดยสหรัฐอเมริกาใช้แนวทางที่ไม่เข้มงวดมากนัก ในขณะที่ยุโรปใช้การควบคุมที่เข้มงวดกว่า Lord Tim Clement-Jones ซึ่งได้นำเสนอร่างกฎหมาย AI อีกฉบับในเดือนกุมภาพันธ์ แนะนำให้เปลี่ยนจุดสนใจไปที่มาตรฐานระหว่างประเทศแทนการออกกฎระเบียบเฉพาะเขตอำนาจศาล เขาเน้นย้ำถึงกรอบมาตรฐานระดับโลก 42,001 จาก International Organisation for Standardisation ซึ่งกำลังถูกนำมาใช้โดยหลายบริษัทแล้ว แนวทางนี้อาจสามารถเชื่อมช่องว่างระหว่างปรัชญาการกำกับดูแลที่แตกต่างกันได้

แนวทางหลักในการกำกับดูแล AI ที่กล่าวถึง:

  • สหราชอาณาจักร: แนวทาง "การกำกับดูแลที่เหมาะสม" ผ่านร่างกฎหมายรัฐสภา
  • สหภาพยุโรป: กรอบการกำกับดูแลที่เข้มงวดกว่าซึ่งถูกวิจารณ์โดยเจ้าหน้าที่สหรัฐฯบางราย
  • สหรัฐอเมริกา: แนวทางแบบปล่อยเสรีมากกว่าในระดับรัฐบาลกลาง
  • มาเลเซีย: กำลังพัฒนาแนวทางเฉพาะสำหรับ AI ในวงการสื่อสารมวลชน
  • ระดับโลก: กรอบมาตรฐาน ISO 42,001 เป็นทางออกที่อาจใช้ได้ในระดับนานาชาติ

ผู้เชี่ยวชาญในอุตสาหกรรมตั้งคำถามถึงความเพียงพอของกรอบการทำงานระดับโลก

แม้จะมีความกระตือรือร้นสำหรับมาตรฐานระหว่างประเทศ แต่ผู้เชี่ยวชาญในอุตสาหกรรมบางรายยังคงสงสัยเกี่ยวกับประสิทธิผลของมาตรฐานเหล่านี้ Navrina Singh ผู้ก่อตั้งและซีอีโอของแพลตฟอร์มการกำกับดูแล AI อย่าง Credo AI เตือนว่าการเพียงแค่ทำเครื่องหมายถูกเพื่อปฏิบัติตามกฎระเบียบจะทำให้บริษัทเป็นผู้แพ้ในการแข่งขันด้าน AI เธอเน้นย้ำว่าแม้กรอบการทำงานระดับโลกจะมีเจตนาดี แต่มักไม่สามารถจัดการกับบริบทเฉพาะของการนำ AI ไปใช้และกระบวนการปฏิบัติงานได้ Singh สนับสนุนแนวทางการกำกับดูแลที่มีความละเอียดอ่อนและเฉพาะเจาะจงตามกรณีการใช้งาน แทนที่จะเป็นแนวทางแบบ เนยถั่ว ที่ใช้กฎเดียวกันทั่วไปทั้งหมด

มาเลเซียสำรวจแนวทางการใช้ AI สำหรับวงการสื่อหลังจากความผิดพลาดต่อสาธารณะ

ในขณะเดียวกัน ในเอเชียตะวันออกเฉียงใต้ กระทรวงการสื่อสารของมาเลเซียได้แสดงความพร้อมที่จะพบปะกับตัวแทนสื่อเพื่อหารือเกี่ยวกับแนวทางการใช้ AI ในวงการสื่อ รัฐมนตรีการสื่อสาร Fahmi Fadzil ระบุว่าเขาจะให้ความสำคัญกับการประชุมกับ National Union of Journalists Malaysia และ Malaysian Press Institute เพื่อรวบรวมข้อมูลเกี่ยวกับการนำ AI มาใช้อย่างรับผิดชอบในสื่อ ความคิดริเริ่มนี้เกิดขึ้นหลังจากความอับอายต่อสาธารณะเกี่ยวกับเนื้อหาที่สร้างโดย AI รวมถึงการแสดงธงชาติมาเลเซียที่ไม่ถูกต้องโดยทั้งหนังสือพิมพ์ท้องถิ่นและกระทรวงศึกษาธิการ

การสร้างสมดุลระหว่างเสรีภาพสื่อกับการใช้ AI อย่างรับผิดชอบ

รัฐมนตรี Fahmi กล่าวถึงสถานะที่ดีขึ้นของมาเลเซียในดัชนีเสรีภาพสื่อของ Reporters Without Borders ซึ่งประเทศนี้อยู่ในอันดับที่ 88 ของโลกและเป็นอันดับสองในกลุ่มประเทศอาเซียน อย่างไรก็ตาม เขาเน้นย้ำว่าแม้นักข่าวมาเลเซียจะมีสิทธิในการพูดและรายงานอย่างเสรี แต่กฎหมายที่มีอยู่ยังคงมีผลบังคับใช้ โดยเฉพาะอย่างยิ่งเกี่ยวกับหัวข้อที่ละเอียดอ่อนเกี่ยวกับเชื้อชาติ ศาสนา และราชวงศ์ การสร้างสมดุลนี้สะท้อนถึงความท้าทายระดับโลกที่กว้างขึ้นในการรักษาเสรีภาพในการแสดงออกในขณะที่ป้องกันการใช้เทคโนโลยี AI ในทางที่ผิด

ความร่วมมือในอุตสาหกรรมกำลังเป็นกลยุทธ์สำคัญ

ในทั้งสองภูมิภาค ความร่วมมือระหว่างผู้กำกับดูแล นักนวัตกรรม และผู้ใช้ปลายทางดูเหมือนจะได้รับการยอมรับว่าเป็นองค์ประกอบสำคัญของการกำกับดูแล AI ที่มีประสิทธิภาพ Betsabeh Madani-Hermann หัวหน้าฝ่ายวิจัยระดับโลกของ Philips เน้นย้ำถึงแนวทางของบริษัทในการนำผู้กำกับดูแล นักนวัตกรรม วิศวกร แพทย์ ทั้งหมดมาอยู่ในห้องเดียวกันตั้งแต่เริ่มต้นกระบวนการพัฒนา วิธีการทำงานร่วมกันนี้มีจุดมุ่งหมายเพื่อป้องกันการพัฒนาแบบแยกส่วนที่ไม่คำนึงถึงความละเอียดอ่อนด้านกฎระเบียบและการปฏิบัติ

แนวคิด Sandboxing นำเสนอนวัตกรรมด้านการกำกับดูแลที่มีศักยภาพ

แนวทางที่น่าสนใจอีกประการหนึ่งที่ Lord Clement-Jones กล่าวถึงคือการทำ sandboxing regulation ระหว่างภาคส่วนต่างๆ วิธีนี้ช่วยให้บริษัทสามารถทดสอบการนำ AI ไปใช้ภายในสภาพแวดล้อมการกำกับดูแลที่ควบคุม ทำให้เข้าใจกรอบการทำงานจากผู้กำกับดูแลของตนเองก่อนที่จะนำไปใช้ในวงกว้าง แนวทางเช่นนี้อาจเป็นเส้นทางสายกลางระหว่างสภาพแวดล้อมการกำกับดูแลที่เข้มงวดเกินไปและอันตรายเกินไป ซึ่งอาจจัดการกับข้อกังวลจากทั้งผู้สนับสนุนนวัตกรรมและผู้สนับสนุนความปลอดภัย