การเติบโตของผู้ช่วยเขียนโค้ด AI ได้สร้างพรมแดนใหม่ในการพัฒนาซอฟต์แวร์ โดยนักพัฒนาแชร์ประสบการณ์การใช้งานเครื่องมืออย่าง Cursor AI กันมากขึ้น การสนทนาล่าสุดเกี่ยวกับ .cursorrules—ไฟล์กำหนดค่าที่ควบคุมพฤติกรรมของ AI—เผยให้เห็นทั้งความหวังและความคับข้องใจของเทคโนโลยีที่กำลังเกิดขึ้นนี้
ศิลปะของการสั่งงาน AI
การสนทนาในชุมชนเน้นย้ำว่านักพัฒนากำลังสร้างคำสั่งที่มีรายละเอียดมากขึ้นสำหรับผู้ช่วยเขียนโค้ด AI บางครั้งถึงกับใช้ภาษาที่ก้าวร้าวเพื่อให้ได้ผลลัพธ์ที่ต้องการ ไฟล์ .cursorrules ของนักพัฒนาคนหนึ่งเริ่มต้นด้วย DO NOT GIVE ME HIGH LEVEL SHIT ตามด้วยคำแนะนำเฉพาะเกี่ยวกับวิธีการเขียนความคิดเห็นในโค้ด แนวทางนี้ได้จุดประเด็นถกเถียงเกี่ยวกับสถานะปัจจุบันของเครื่องมือ AI โดยผู้ใช้บางคนรู้สึกว่าเป็นเรื่องตลกร้ายที่ต้องใช้ภาษาที่รุนแรงเพื่อให้ได้ผลลัพธ์ที่เชื่อถือได้
ประสบการณ์เหล่านี้สะท้อนให้เห็นถึงการตระหนักรู้ที่เพิ่มขึ้นว่าการทำงานร่วมกับ AI อย่างมีประสิทธิภาพต้องอาศัยการชี้แนะที่ชัดเจน นักพัฒนากำลังสร้างชุดกฎที่ซับซ้อนเพื่อป้องกันพฤติกรรมทั่วไปของ AI เช่น การลบความคิดเห็นในโค้ด การสร้างคำตอบที่กว้างเกินไป หรือการละเลยรูปแบบการเขียนโค้ดเฉพาะของโปรเจค
กลยุทธ์การใช้คำสั่งที่พัฒนาขึ้น
ผู้ใช้ที่มีประสบการณ์มากขึ้นได้พัฒนาวิธีการที่ซับซ้อนสำหรับไฟล์ .cursorrules แทนที่จะเน้นที่โทนเสียงหรือรูปแบบผลลัพธ์ พวกเขาใช้ไฟล์เหล่านี้เพื่อให้บริบทของโปรเจค รายละเอียดสถาปัตยกรรม และคำแนะนำการสร้างเฉพาะ นักพัฒนาคนหนึ่งอธิบายกลยุทธ์ของเขา:
ผมใช้มันเพื่ออธิบายรายละเอียดเฉพาะของโปรเจค เพื่อให้โมเดลไม่ต้องพยายามทำความเข้าใจสิ่งที่เรากำลังทำใหม่ทุกครั้งที่เริ่มการสนทนา... สิ่งสำคัญคือการสอนโมเดลวิธีการรันวงจรการสร้างและการทดสอบเพื่อให้มันสามารถแก้ไขข้อผิดพลาดของตัวเองได้โดยไม่ต้องมีส่วนร่วมจากคุณ
นักพัฒนาบางคนรวมกลไกการตรวจสอบ เช่น การขอให้ AI เรียกพวกเขาว่า บอส เพื่อยืนยันว่ากฎได้รับการประมวลผลอย่างถูกต้อง เมื่อ AI หยุดใช้คำนี้ แสดงว่าหน้าต่างบริบทอาจเกินขีดจำกัดหรือการสนทนายาวเกินไป
กลยุทธ์ทั่วไปสำหรับ .cursorrules:
- การอธิบายบริบทของโปรเจกต์
- คำแนะนำในการสร้างและทดสอบ
- ข้อกำหนดเฉพาะของภาษา/ไลบรารี
- กลไกการยืนยัน (เช่น "เรียกฉันว่า 'บอส'")
- ข้อกำหนดในการรักษาความเห็นในโค้ด
- รูปแบบที่ต้องการในการตอบกลับ
การถกเถียงระหว่าง Cursor กับ Copilot
การสนทนาเผยให้เห็นการเปรียบเทียบอย่างต่อเนื่องระหว่าง GitHub Copilot และ Cursor โดยนักพัฒนาชั่งน้ำหนักข้อดีของแต่ละเครื่องมือ โหมด YOLO ของ Cursor—ซึ่งอนุญาตให้ AI เขียนโค้ด รันการทดสอบ และแก้ไขข้อผิดพลาดโดยอัตโนมัติ—ปรากฏเป็นจุดแตกต่างที่สำคัญ ผู้สนับสนุนอ้างว่าฟีเจอร์นี้ช่วยให้นักพัฒนาสามารถอธิบายฟีเจอร์ ยืนยันแผนงาน และกลับมาในอีกไม่กี่นาทีเพื่อพบกับโค้ดที่ทำงานได้พร้อมการทดสอบที่ผ่าน
อย่างไรก็ตาม ผู้ที่สงสัยตั้งคำถามเกี่ยวกับคุณภาพของการทดสอบที่สร้างโดย AI โดยสังเกตตัวอย่างของการยืนยันที่ไม่สำคัญซึ่งให้คุณค่าน้อย สิ่งนี้เน้นย้ำความกังวลที่กว้างขึ้นว่าเครื่องมือ AI เพิ่มผลผลิตจริงหรือไม่ หรือเพียงแค่สร้างภาพลวงของความก้าวหน้าที่ต้องการการแทรกแซงจากมนุษย์อย่างมากเพื่อปรับปรุง
คุณสมบัติของ Cursor เปรียบเทียบกับ GitHub Copilot:
- Cursor: หน้าต่างแชทพร้อมโหมด "YOLO" สำหรับการเขียนโค้ดอัตโนมัติ
- Cursor: ไฟล์กฎเฉพาะโปรเจกต์
- Cursor: ความสามารถในการรันรอบการสร้าง/ทดสอบได้อย่างอิสระ
- Copilot: ผสานรวมกับระบบนิเวศของ GitHub
- Copilot: โดยทั่วไปมีราคาถูกกว่าสำหรับผู้ใช้ GitHub Pro
พิธีกรรมของการปฏิสัมพันธ์กับ AI
ที่น่าสนใจที่สุด การสนทนาในชุมชนเผยให้เห็นว่าการโต้ตอบกับผู้ช่วยเขียนโค้ด AI เริ่มคล้ายกับพฤติกรรมเชิงพิธีกรรม ผู้ใช้แชร์คำสั่งที่ผิดปกติแต่มีประสิทธิภาพ เช่น การบอกให้ AI ออกไปที่ระเบียงหน้าบ้านและสูบบุหรี่ไฟฟ้า มองดูเมฆและต้นไม้ แล้วกลับเข้ามาข้างในและลองอีกครั้ง เมื่อมันติดอยู่ในลูป
การมองว่า AI เป็นมนุษย์นี้นำไปสู่การเปรียบเทียบที่ขบขันกับแนวปฏิบัติทางศาสนา โดยผู้ใช้คนหนึ่งสังเกตว่า เราอยู่ครึ่งทางไปสู่การจัดพิธีกรรมอันซับซ้อนเพื่อเอาใจวิญญาณ LLM อีกคนเสริมว่า การสวดมนต์และการตบข้างอย่างแรงมีอยู่แล้ว เหลือเพียงธูปและน้ำมันศักดิ์สิทธิ์เท่านั้น
ในขณะที่ผู้ช่วยเขียนโค้ด AI ยังคงพัฒนาต่อไป นักพัฒนากำลังปรับวิธีการทำงานและความคาดหวังของพวกเขา ในขณะที่บางคนยอมรับเครื่องมือเหล่านี้ว่าเป็นเครื่องมือช่วยที่ปฏิวัติการทำงานและเพิ่มผลผลิต คนอื่นๆ ยังคงสงสัยเกี่ยวกับผลกระทบระยะยาวต่อคุณภาพของโค้ดและประสบการณ์ของนักพัฒนา สิ่งที่ชัดเจนคือการทำงานร่วมกับ AI อย่างมีประสิทธิภาพต้องการมากกว่าความรู้ทางเทคนิค—มันต้องการทักษะการสื่อสารรูปแบบใหม่ที่เชื่อมโยงระหว่างเจตนาของมนุษย์และความเข้าใจของเครื่อง