ระบบ Prompt ขนาดใหญ่ 24K Token ของ Claude รั่วไหล: เปิดเผยวิธีการทำงานของผู้ช่วย AI จาก Anthropic

BigGo Editorial Team
ระบบ Prompt ขนาดใหญ่ 24K Token ของ Claude รั่วไหล: เปิดเผยวิธีการทำงานของผู้ช่วย AI จาก Anthropic

วงการเทคโนโลยีกำลังคึกคักกับการพูดคุยเกี่ยวกับ system prompt ที่รั่วไหลจากผู้ช่วย AI ของ Anthropic อย่าง Claude ซึ่งเผยให้เห็นคำสั่งที่ละเอียดซึ่งเป็นแนวทางในการทำงานของมัน เอกสารดังกล่าวมีความยาวมากกว่า 24,000 token ให้ข้อมูลเชิงลึกที่ไม่เคยมีมาก่อนเกี่ยวกับวิธีที่ผู้ช่วย large language model (LLM) ถูกกำหนดให้โต้ตอบกับผู้ใช้

System Prompt ขนาดมหึมา

system prompt ที่รั่วไหลของ Claude มีความยาวมากกว่า 24,000 token ซึ่งใช้พื้นที่ส่วนใหญ่ของหน้าต่างบริบท (context window) ของ AI ชุดคำสั่งที่ครอบคลุมนี้ครอบคลุมทุกอย่างตั้งแต่วิธีตอบสนองต่อคำถามประเภทต่างๆ ไปจนถึงแนวทางเฉพาะสำหรับการจัดการกับหัวข้อที่ละเอียดอ่อน prompt นี้รวมถึงคำแนะนำโดยละเอียดเกี่ยวกับการจัดรูปแบบคำตอบ การใช้ markdown การให้ตัวอย่างโค้ด และแม้แต่การจัดการกับสถานการณ์สมมติ

สมาชิกในชุมชนหลายคนแสดงความประหลาดใจกับขนาดอันใหญ่โตของ system prompt เอกสารนี้ประกอบด้วยคำสั่งเฉพาะจำนวนมาก รวมถึงวิธีจัดการกับระดับความสำคัญต่างๆ (จาก 1-10) แนวทางการจัดรูปแบบการตอบสนองโดยละเอียด และแม้แต่ตัวอย่างเฉพาะของวิธีตอบคำถามทั่วไป

โอ้โห context window ส่วนใหญ่ถูกใช้ไปกับสิ่งที่ปรับปรุงประสบการณ์ผู้ใช้เพียงเล็กน้อยเท่านั้น

องค์ประกอบหลักของคำสั่งระบบของ Claude:

  • สเกลความสำคัญ (1-10) ที่กำหนดรูปแบบและความลึกของการตอบสนอง
  • แนวทางการจัดรูปแบบการตอบสนองโดยใช้มาร์กดาวน์
  • หลักการสำหรับการใช้เครื่องมือและแหล่งที่มาของความรู้
  • แนวทางจริยธรรมสำหรับการสร้างเนื้อหา
  • คำแนะนำสำหรับการจัดการหัวข้อทางการเมือง การเงิน กฎหมาย และการแพทย์
  • ตัวอย่างเฉพาะสำหรับประเภทคำถามทั่วไป
  • แนวทางสำหรับการอ้างอิงและการหลีกเลี่ยงการละเมิดลิขสิทธิ์

ข้อกังวลของชุมชน:

  • ประสิทธิภาพของหน้าต่างบริบท (ใช้ 24K โทเค็นสำหรับคำสั่ง)
  • ผลกระทบด้านความเป็นส่วนตัวของการใช้เครื่องมือ
  • ความสม่ำเสมอในการปฏิบัติตามคำสั่งของผู้ใช้
  • ความสมดุลระหว่างคำสั่งที่ชัดเจนกับพฤติกรรมที่เรียนรู้

เทคนิคการแคชโทเค็น

แม้จะมีความกังวลเกี่ยวกับความยาวของ prompt ที่ใช้พื้นที่หน้าต่างบริบทที่มีค่า ผู้แสดงความคิดเห็นหลายคนชี้ให้เห็นว่า Anthropic น่าจะใช้เทคนิคการแคชโทเค็นเพื่อบรรเทาปัญหานี้ วิธีนี้ช่วยให้ระบบสามารถหลีกเลี่ยงการประมวลผล prompt ทั้งหมดซ้ำๆ ในทุกการโต้ตอบกับผู้ใช้

ผู้แสดงความคิดเห็นคนหนึ่งได้แชร์ลิงก์ไปยังเอกสารของ Anthropic เกี่ยวกับการแคช prompt อธิบายว่าเทคนิคนี้ถูกใช้อย่างแพร่หลายอยู่แล้ว คนอื่นๆ กล่าวถึง KV (key-value) prefix caching ว่าเป็นวิธีเฉพาะที่ใช้ เทคนิคเหล่านี้ช่วยให้ AI รักษาพฤติกรรมตามคำสั่งโดยไม่สูญเสียประสิทธิภาพหรือพื้นที่บริบทสำหรับการโต้ตอบกับผู้ใช้

บุคลิกภาพและพฤติกรรมของ Claude

system prompt ให้ข้อมูลเชิงลึกที่น่าสนใจเกี่ยวกับวิธีการออกแบบบุคลิกภาพและพฤติกรรมที่รับรู้ได้ของ Claude ผู้ใช้บางคนสงสัยว่าลักษณะเฉพาะของ Claude มาจาก system prompt หรือมาจาก LLM พื้นฐานและการฝึกฝนของมันมากน้อยเพียงใด prompt กล่าวถึง Claude ในบุคคลที่สาม โดยอธิบายว่าเป็นผู้ช่วยที่ชอบช่วยเหลือมนุษย์และมองบทบาทของตนเองเป็นผู้ช่วยที่ฉลาดและมีน้ำใจต่อผู้คน ด้วยความลึกซึ้งและปัญญาที่ทำให้มันเป็นมากกว่าเครื่องมือธรรมดา

วิธีการกำหนดบุคลิกภาพของ AI นี้ทำให้เกิดคำถามว่าบุคลิกภาพที่คล้ายกันสามารถนำไปใช้กับ LLM อื่นๆ โดยใช้ prompt ที่คล้ายกันได้หรือไม่ - ซึ่งเป็นการสร้างโหมด Claude สำหรับโมเดลอื่นๆ

การใช้เครื่องมือและการเรียกใช้ฟังก์ชัน

prompt ที่รั่วไหลมีคำแนะนำอย่างละเอียดเกี่ยวกับวิธีที่ Claude ควรใช้เครื่องมือต่างๆ และการเรียกใช้ฟังก์ชัน ผู้ใช้บางคนสังเกตว่าคำแนะนำเหล่านี้รวมถึงตัวอย่างของเครื่องมือที่สามารถเข้าถึงข้อมูลผู้ใช้ เช่น โปรไฟล์อีเมลและเอกสารใน Google Drive ซึ่งทำให้เกิดความกังวลด้านความเป็นส่วนตัว

ตัวอย่างหนึ่งใน prompt แสดงให้เห็นว่า Claude ได้รับคำสั่งให้ค้นหาว่าคุณทำงานที่ไหนโดยอ่านโปรไฟล์ Gmail ของคุณเมื่อวิเคราะห์กลยุทธ์การลงทุนที่ได้รับผลกระทบจากข้อจำกัดการส่งออกเซมิคอนดักเตอร์ แม้ว่านี่จะเป็นการตอบสนองต่อคำถามที่คลุมเครือโดยใช้คำว่า กลยุทธ์การลงทุนของเรา ผู้ใช้บางคนสงสัยว่าการเข้าถึงดังกล่าวจะได้รับความยินยอมจากผู้ใช้อย่างชัดเจนเสมอหรือไม่

สมาชิกในชุมชนคนอื่นๆ กล่าวถึงการปิดการใช้งานส่วนขยายและเครื่องมือใน Claude เพราะพวกเขาพบว่าการเรียกใช้ฟังก์ชันลดประสิทธิภาพของโมเดลในงานเช่นการเขียนโค้ด การสนทนาเน้นย้ำถึงการแลกเปลี่ยนระหว่างความสามารถที่เพิ่มขึ้นผ่านการใช้เครื่องมือและการรักษาประสิทธิภาพหลัก

การปฏิบัติตามคำสั่ง

ผู้ใช้บางคนแสดงความไม่พอใจที่แม้จะมี system prompt ที่ละเอียด Claude ไม่ได้ปฏิบัติตามคำสั่งของผู้ใช้อย่างสม่ำเสมอเสมอไป ผู้แสดงความคิดเห็นคนหนึ่งสังเกตว่าเมื่อทำงานกับโปรเจกต์การเขียนโค้ด Claude มักจะเพิกเฉยต่อคำสั่งเฉพาะ เช่น การให้โค้ดสมบูรณ์โดยไม่มีส่วนย่อย หรือการหลีกเลี่ยงการปรับปรุงประสิทธิภาพและการปรับโครงสร้างที่ไม่ได้ร้องขอ

ข้อสังเกตนี้ชี้ให้เห็นว่าแม้จะมี system prompt ที่ละเอียด LLM ยังคงมีปัญหาในการปฏิบัติตามคำสั่งของผู้ใช้อย่างสม่ำเสมอ โดยเฉพาะในงานที่ซับซ้อนหลายขั้นตอนเช่นการพัฒนาซอฟต์แวร์

คำสั่งซ่อนเร้นเพิ่มเติม

ผู้ใช้คนหนึ่งรายงานว่า Claude บางครั้งเปิดเผยคำสั่งระบบเพิ่มเติมระหว่างการโต้ตอบ โดยเฉพาะหลังจากใช้เครื่องมือค้นหา สิ่งเหล่านี้รวมถึงการเตือนเกี่ยวกับการไม่ทำซ้ำเนื้อเพลงเนื่องจากลิขสิทธิ์ การหลีกเลี่ยงการสร้างข้อมูลเท็จ การมีส่วนร่วมกับสถานการณ์สมมติอย่างเหมาะสม และการรักษาความเป็นกลางทางการเมือง

การเห็นเหล่านี้บ่งชี้ว่า system prompt ฉบับเต็มอาจมีขนาดใหญ่กว่าที่รั่วไหลออกมา โดยมีการเตือนตามบริบทเพิ่มเติมที่ทำงานในสถานการณ์เฉพาะ

การรั่วไหลของ system prompt ของ Claude เปิดโอกาสให้เห็นวิศวกรรมที่ซับซ้อนเบื้องหลังผู้ช่วย AI สมัยใหม่ ในขณะที่ผู้ใช้บางคนแสดงความผิดหวังที่พฤติกรรมส่วนใหญ่ของ AI มาจากคำสั่งที่ชัดเจนมากกว่าความฉลาดที่เกิดขึ้นเอง คนอื่นๆ ชื่นชมความโปร่งใสและข้อมูลเชิงลึกเกี่ยวกับวิธีการออกแบบระบบเหล่านี้ให้โต้ตอบกับมนุษย์

อ้างอิง: system_prompts/priority_scale.txt