แนวคิดเรื่องคำสั่ง LLM แบบเรียกซ้ำ ซึ่งมีมาตั้งแต่เดือนเมษายน 2023 ได้พัฒนาจากการศึกษาเชิงวิชาการกลายเป็นเทคนิคพื้นฐานสำหรับผลิตภัณฑ์ AI เชิงพาณิชย์หลายรายการ ตามที่ชุมชนได้อภิปรายกัน เรากำลังเห็นการเปลี่ยนแปลงของแนวคิดทางทฤษฎีไปสู่การประยุกต์ใช้จริงในอัตราที่น่าทึ่ง
จากทฤษฎีสู่การปฏิบัติ
สิ่งที่เริ่มต้นเป็นเพียงแนวทางการทดลองในการใช้ภาษาอังกฤษเป็นภาษาโปรแกรมมิ่งและใช้ LLM เป็นสภาพแวดล้อมการทำงาน ปัจจุบันได้กลายเป็นส่วนสำคัญของระบบ AI สมัยใหม่ เทคนิคนี้เกี่ยวข้องกับการสร้างคำสั่งที่สามารถสร้างเวอร์ชันที่ปรับปรุงเล็กน้อยของตัวมันเอง ซึ่งช่วยรักษาสถานะระหว่างการทำงานแต่ละรอบในขณะที่ทำงานเพื่อหาคำตอบ ดังที่ผู้แสดงความคิดเห็นรายหนึ่งได้กล่าวไว้:
ผมมองว่านี่เหมือนกับวงจรการให้เหตุผล นี่คือแนวทางที่ผมใช้ในการเขียนโค้ดจำลองวงจรการให้เหตุผลอย่างรวดเร็วในโปรเจกต์ท้องถิ่น มีคนถามในกระทู้อื่นว่าจะให้ LLM สร้างหนังสือทั้งเล่มได้อย่างไร ก็ทำได้แบบนี้นี่แหละ
การประยุกต์ใช้งานจริงนี้แสดงให้เห็นว่าการใช้คำสั่งแบบเรียกซ้ำได้ก้าวข้ามความสนใจเชิงทฤษฎีไปสู่การเป็นเทคนิคการพัฒนาที่แท้จริง
![]() |
---|
อินเทอร์เฟซนี้แสดงให้เห็นว่า recursive prompting สามารถแก้ปัญหาทางคณิตศาสตร์ได้อย่างมีประสิทธิภาพผ่านการให้เหตุผลอย่างมีโครงสร้าง |
การนำไปใช้เชิงพาณิชย์และเศรษฐศาสตร์ของโทเค็น
การอภิปรายในชุมชนเผยให้เห็นมิติทางเศรษฐกิจที่น่าสนใจของการใช้คำสั่งแบบเรียกซ้ำ ผู้แสดงความคิดเห็นหลายคนชี้ให้เห็นว่าบริษัท AI มีแรงจูงใจทางการเงินอย่างมากในการส่งเสริมแนวทางแบบตัวแทน (agent-based) และเครื่องมือที่ใช้ประโยชน์จากการใช้คำสั่งแบบเรียกซ้ำ เนื่องจากเพิ่มการใช้โทเค็นอย่างมีนัยสำคัญ สิ่งที่สามารถทำได้ในคำสั่งเดียวและใช้โทเค็นเพียงไม่กี่ร้อย มักกลายเป็นคำสั่งหลายสิบคำสั่งและใช้โทเค็นหลายพันเมื่อนำไปใช้ในระบบแบบเรียกซ้ำ
ข้อสังเกตนี้เกิดขึ้นในช่วงเวลาที่เหมาะสม โดยผู้แสดงความคิดเห็นได้ระบุว่า OpenAI เพิ่งเปิดตัว o1 (ระบบแบบตัวแทนของพวกเขา) ในเดือนกันยายน 2024 แม้ว่าแนวคิดเหล่านี้ได้รับการศึกษามาหลายปีแล้ว ช่องว่างระหว่างการพัฒนาแนวคิดและการนำไปใช้เชิงพาณิชย์แสดงให้เห็นถึงวิวัฒนาการของสาขานี้ที่เกิดขึ้นอย่างรวดเร็ว
แนวคิดสำคัญในการทำ Recursive LLM Prompting
- กลไกพื้นฐาน: คำสั่งที่สร้างเวอร์ชันอัปเดตของตัวเอง
- การจัดการสถานะ: รักษาตัวแปรไว้ตลอดการทำงานหลายรอบ
- การประยุกต์ใช้: การแก้ปัญหา การสร้างเนื้อหา (หนังสือ ฯลฯ)
- ตัวอย่างเชิงพาณิชย์: เครื่องมือเช่น Cursor, OpenAI's o1 (เปิดตัวกันยายน 2024)
- บริบททางประวัติศาสตร์: การนำไปใช้งานครั้งแรกที่มีการบันทึกไว้ตั้งแต่เมษายน 2023 เป็นอย่างน้อย
- ปัจจัยทางเศรษฐกิจ: เพิ่มการใช้โทเค็นเมื่อเทียบกับวิธีการใช้คำสั่งเดียว
ข้อจำกัดและทางเลือก
แม้จะมีความกระตือรือร้น ชุมชนยังคงมีมุมมองที่เป็นจริงเกี่ยวกับข้อจำกัดของการใช้ LLM สำหรับงานบางประเภท ปัญหาทางคณิตศาสตร์และงานอ้างอิง ตัวอย่างเช่น มักถูกยกให้เป็นพื้นที่ที่ซอฟต์แวร์เฉพาะทางอาจมีประสิทธิภาพมากกว่าวิธีการที่ใช้ LLM มุมมองที่เป็นจริงนี้บ่งชี้ว่าแม้การใช้คำสั่งแบบเรียกซ้ำจะเปิดโอกาสใหม่ๆ แต่ก็ไม่ใช่ทางออกที่เหมาะสมที่สุดเสมอไป
การอภิปรายยังกล่าวถึงแนวคิดที่เป็นการทดลองมากขึ้น เช่น การสร้าง LLM quines (โปรแกรมที่สามารถจำลองตัวเองได้) และการพิสูจน์ว่า LLM แบบวนซ้ำมีความสมบูรณ์แบบทัวริง (Turing complete) ซึ่งบ่งชี้ว่าการสำรวจทางทฤษฎีของเทคนิคเหล่านี้ยังคงดำเนินต่อไปควบคู่กับการประยุกต์ใช้เชิงพาณิชย์
ในขณะที่เทคนิคการใช้คำสั่งแบบเรียกซ้ำพัฒนาจากความอยากรู้ทางวิชาการไปสู่ผลิตภัณฑ์เชิงพาณิชย์ เรากำลังเห็นการนำแนวคิดที่ดูเหมือนเป็นเพียงทฤษฎีเมื่อเพียงสองปีก่อนมาใช้งานจริง ความเร็วของวิวัฒนาการนี้ชี้ให้เห็นว่าความสามารถของ AI กำลังก้าวหน้าและถูกนำมาสร้างรายได้อย่างรวดเร็วเพียงใด แม้ในขณะที่นักวิจัยยังคงสำรวจขีดจำกัดทางทฤษฎีและการประยุกต์ใช้งานจริง
อ้างอิง: Recursive LLM prompts
![]() |
---|
ผลลัพธ์ในเทอร์มินัลนี้แสดงให้เห็นถึงตัวเลขที่อาจเกิดขึ้นในการทดลองกับ LLMs ซึ่งเน้นย้ำถึงข้อจำกัดในทางปฏิบัติของโมเดลเหล่านี้ในงานทางคณิตศาสตร์ |