วงการเทคโนโลยีกำลังคึกคักกับการพูดคุยเกี่ยวกับ system prompt ที่รั่วไหลจากผู้ช่วย AI ของ Anthropic อย่าง Claude ซึ่งเผยให้เห็นคำสั่งที่ละเอียดซึ่งเป็นแนวทางในการทำงานของมัน เอกสารดังกล่าวมีความยาวมากกว่า 24,000 token ให้ข้อมูลเชิงลึกที่ไม่เคยมีมาก่อนเกี่ยวกับวิธีที่ผู้ช่วย large language model (LLM) ถูกกำหนดให้โต้ตอบกับผู้ใช้
System Prompt ขนาดมหึมา
system prompt ที่รั่วไหลของ Claude มีความยาวมากกว่า 24,000 token ซึ่งใช้พื้นที่ส่วนใหญ่ของหน้าต่างบริบท (context window) ของ AI ชุดคำสั่งที่ครอบคลุมนี้ครอบคลุมทุกอย่างตั้งแต่วิธีตอบสนองต่อคำถามประเภทต่างๆ ไปจนถึงแนวทางเฉพาะสำหรับการจัดการกับหัวข้อที่ละเอียดอ่อน prompt นี้รวมถึงคำแนะนำโดยละเอียดเกี่ยวกับการจัดรูปแบบคำตอบ การใช้ markdown การให้ตัวอย่างโค้ด และแม้แต่การจัดการกับสถานการณ์สมมติ
สมาชิกในชุมชนหลายคนแสดงความประหลาดใจกับขนาดอันใหญ่โตของ system prompt เอกสารนี้ประกอบด้วยคำสั่งเฉพาะจำนวนมาก รวมถึงวิธีจัดการกับระดับความสำคัญต่างๆ (จาก 1-10) แนวทางการจัดรูปแบบการตอบสนองโดยละเอียด และแม้แต่ตัวอย่างเฉพาะของวิธีตอบคำถามทั่วไป
โอ้โห context window ส่วนใหญ่ถูกใช้ไปกับสิ่งที่ปรับปรุงประสบการณ์ผู้ใช้เพียงเล็กน้อยเท่านั้น
องค์ประกอบหลักของคำสั่งระบบของ Claude:
- สเกลความสำคัญ (1-10) ที่กำหนดรูปแบบและความลึกของการตอบสนอง
- แนวทางการจัดรูปแบบการตอบสนองโดยใช้มาร์กดาวน์
- หลักการสำหรับการใช้เครื่องมือและแหล่งที่มาของความรู้
- แนวทางจริยธรรมสำหรับการสร้างเนื้อหา
- คำแนะนำสำหรับการจัดการหัวข้อทางการเมือง การเงิน กฎหมาย และการแพทย์
- ตัวอย่างเฉพาะสำหรับประเภทคำถามทั่วไป
- แนวทางสำหรับการอ้างอิงและการหลีกเลี่ยงการละเมิดลิขสิทธิ์
ข้อกังวลของชุมชน:
- ประสิทธิภาพของหน้าต่างบริบท (ใช้ 24K โทเค็นสำหรับคำสั่ง)
- ผลกระทบด้านความเป็นส่วนตัวของการใช้เครื่องมือ
- ความสม่ำเสมอในการปฏิบัติตามคำสั่งของผู้ใช้
- ความสมดุลระหว่างคำสั่งที่ชัดเจนกับพฤติกรรมที่เรียนรู้
เทคนิคการแคชโทเค็น
แม้จะมีความกังวลเกี่ยวกับความยาวของ prompt ที่ใช้พื้นที่หน้าต่างบริบทที่มีค่า ผู้แสดงความคิดเห็นหลายคนชี้ให้เห็นว่า Anthropic น่าจะใช้เทคนิคการแคชโทเค็นเพื่อบรรเทาปัญหานี้ วิธีนี้ช่วยให้ระบบสามารถหลีกเลี่ยงการประมวลผล prompt ทั้งหมดซ้ำๆ ในทุกการโต้ตอบกับผู้ใช้
ผู้แสดงความคิดเห็นคนหนึ่งได้แชร์ลิงก์ไปยังเอกสารของ Anthropic เกี่ยวกับการแคช prompt อธิบายว่าเทคนิคนี้ถูกใช้อย่างแพร่หลายอยู่แล้ว คนอื่นๆ กล่าวถึง KV (key-value) prefix caching ว่าเป็นวิธีเฉพาะที่ใช้ เทคนิคเหล่านี้ช่วยให้ AI รักษาพฤติกรรมตามคำสั่งโดยไม่สูญเสียประสิทธิภาพหรือพื้นที่บริบทสำหรับการโต้ตอบกับผู้ใช้
บุคลิกภาพและพฤติกรรมของ Claude
system prompt ให้ข้อมูลเชิงลึกที่น่าสนใจเกี่ยวกับวิธีการออกแบบบุคลิกภาพและพฤติกรรมที่รับรู้ได้ของ Claude ผู้ใช้บางคนสงสัยว่าลักษณะเฉพาะของ Claude มาจาก system prompt หรือมาจาก LLM พื้นฐานและการฝึกฝนของมันมากน้อยเพียงใด prompt กล่าวถึง Claude ในบุคคลที่สาม โดยอธิบายว่าเป็นผู้ช่วยที่ชอบช่วยเหลือมนุษย์และมองบทบาทของตนเองเป็นผู้ช่วยที่ฉลาดและมีน้ำใจต่อผู้คน ด้วยความลึกซึ้งและปัญญาที่ทำให้มันเป็นมากกว่าเครื่องมือธรรมดา
วิธีการกำหนดบุคลิกภาพของ AI นี้ทำให้เกิดคำถามว่าบุคลิกภาพที่คล้ายกันสามารถนำไปใช้กับ LLM อื่นๆ โดยใช้ prompt ที่คล้ายกันได้หรือไม่ - ซึ่งเป็นการสร้างโหมด Claude สำหรับโมเดลอื่นๆ
การใช้เครื่องมือและการเรียกใช้ฟังก์ชัน
prompt ที่รั่วไหลมีคำแนะนำอย่างละเอียดเกี่ยวกับวิธีที่ Claude ควรใช้เครื่องมือต่างๆ และการเรียกใช้ฟังก์ชัน ผู้ใช้บางคนสังเกตว่าคำแนะนำเหล่านี้รวมถึงตัวอย่างของเครื่องมือที่สามารถเข้าถึงข้อมูลผู้ใช้ เช่น โปรไฟล์อีเมลและเอกสารใน Google Drive ซึ่งทำให้เกิดความกังวลด้านความเป็นส่วนตัว
ตัวอย่างหนึ่งใน prompt แสดงให้เห็นว่า Claude ได้รับคำสั่งให้ค้นหาว่าคุณทำงานที่ไหนโดยอ่านโปรไฟล์ Gmail ของคุณเมื่อวิเคราะห์กลยุทธ์การลงทุนที่ได้รับผลกระทบจากข้อจำกัดการส่งออกเซมิคอนดักเตอร์ แม้ว่านี่จะเป็นการตอบสนองต่อคำถามที่คลุมเครือโดยใช้คำว่า กลยุทธ์การลงทุนของเรา ผู้ใช้บางคนสงสัยว่าการเข้าถึงดังกล่าวจะได้รับความยินยอมจากผู้ใช้อย่างชัดเจนเสมอหรือไม่
สมาชิกในชุมชนคนอื่นๆ กล่าวถึงการปิดการใช้งานส่วนขยายและเครื่องมือใน Claude เพราะพวกเขาพบว่าการเรียกใช้ฟังก์ชันลดประสิทธิภาพของโมเดลในงานเช่นการเขียนโค้ด การสนทนาเน้นย้ำถึงการแลกเปลี่ยนระหว่างความสามารถที่เพิ่มขึ้นผ่านการใช้เครื่องมือและการรักษาประสิทธิภาพหลัก
การปฏิบัติตามคำสั่ง
ผู้ใช้บางคนแสดงความไม่พอใจที่แม้จะมี system prompt ที่ละเอียด Claude ไม่ได้ปฏิบัติตามคำสั่งของผู้ใช้อย่างสม่ำเสมอเสมอไป ผู้แสดงความคิดเห็นคนหนึ่งสังเกตว่าเมื่อทำงานกับโปรเจกต์การเขียนโค้ด Claude มักจะเพิกเฉยต่อคำสั่งเฉพาะ เช่น การให้โค้ดสมบูรณ์โดยไม่มีส่วนย่อย หรือการหลีกเลี่ยงการปรับปรุงประสิทธิภาพและการปรับโครงสร้างที่ไม่ได้ร้องขอ
ข้อสังเกตนี้ชี้ให้เห็นว่าแม้จะมี system prompt ที่ละเอียด LLM ยังคงมีปัญหาในการปฏิบัติตามคำสั่งของผู้ใช้อย่างสม่ำเสมอ โดยเฉพาะในงานที่ซับซ้อนหลายขั้นตอนเช่นการพัฒนาซอฟต์แวร์
คำสั่งซ่อนเร้นเพิ่มเติม
ผู้ใช้คนหนึ่งรายงานว่า Claude บางครั้งเปิดเผยคำสั่งระบบเพิ่มเติมระหว่างการโต้ตอบ โดยเฉพาะหลังจากใช้เครื่องมือค้นหา สิ่งเหล่านี้รวมถึงการเตือนเกี่ยวกับการไม่ทำซ้ำเนื้อเพลงเนื่องจากลิขสิทธิ์ การหลีกเลี่ยงการสร้างข้อมูลเท็จ การมีส่วนร่วมกับสถานการณ์สมมติอย่างเหมาะสม และการรักษาความเป็นกลางทางการเมือง
การเห็นเหล่านี้บ่งชี้ว่า system prompt ฉบับเต็มอาจมีขนาดใหญ่กว่าที่รั่วไหลออกมา โดยมีการเตือนตามบริบทเพิ่มเติมที่ทำงานในสถานการณ์เฉพาะ
การรั่วไหลของ system prompt ของ Claude เปิดโอกาสให้เห็นวิศวกรรมที่ซับซ้อนเบื้องหลังผู้ช่วย AI สมัยใหม่ ในขณะที่ผู้ใช้บางคนแสดงความผิดหวังที่พฤติกรรมส่วนใหญ่ของ AI มาจากคำสั่งที่ชัดเจนมากกว่าความฉลาดที่เกิดขึ้นเอง คนอื่นๆ ชื่นชมความโปร่งใสและข้อมูลเชิงลึกเกี่ยวกับวิธีการออกแบบระบบเหล่านี้ให้โต้ตอบกับมนุษย์
อ้างอิง: system_prompts/priority_scale.txt