ในภูมิทัศน์ของการพัฒนาด้วย AI ที่กำลังเปลี่ยนแปลงอย่างรวดเร็ว โปรแกรมเมอร์กำลังค้นพบวิธีสร้างสรรค์เพื่อเอาชนะข้อจำกัดของเครื่องมือ AI ที่มีอยู่ในระบบ โครงการโอเพนซอร์สใหม่ที่เรียกว่า ProxyAsLocalModel ได้ปรากฏขึ้นเป็นทางออกสำหรับนักพัฒนาที่ต้องการใช้โมเดลภาษาขนาดใหญ่ (LLMs) ที่พวกเขาชื่นชอบกับ AI Assistant ของ JetBrains โดยหลบเลี่ยงข้อจำกัดโควต้าฟรีที่เข้มงวดของแพลตฟอร์ม
การขยายความสามารถของ JetBrains AI Assistant นอกเหนือจากตัวเลือกเริ่มต้น
ProxyAsLocalModel ทำหน้าที่เป็นสะพานเชื่อมระหว่าง API ของ LLM จากบุคคลที่สามกับ IDE ของ JetBrains โดยจำลอง (proxy) บริการเหล่านี้ให้เป็นโมเดลในเครื่องที่เข้ากันได้กับ AI Assistant เครื่องมือนี้แก้ปัญหาความไม่พอใจที่พบบ่อยในหมู่นักพัฒนา: JetBrains AI Assistant มีโควต้าฟรีที่จำกัดซึ่งหมดอย่างรวดเร็ว ในขณะที่รองรับเฉพาะโมเดลในเครื่องจาก LM Studio และ Ollama เท่านั้น ด้วยการสร้างพร็อกซีที่เลียนแบบจุดเชื่อมต่อในเครื่องที่รองรับเหล่านี้ นักพัฒนาสามารถใช้บริการ LLM ทางเลือกที่พวกเขาได้ซื้อไว้แล้ว เช่น OpenAI, Claude, Gemini, Qwen, Deepseek, Mistral และ SiliconFlow
โครงการนี้โดดเด่นเป็นพิเศษในการใช้ Kotlin, Ktor และ kotlinx.serialization ในการพัฒนา ซึ่งช่วยให้สามารถทำงานข้ามแพลตฟอร์มได้ผ่านการคอมไพล์ GraalVM native image วิธีนี้หลีกเลี่ยงการใช้ SDK อย่างเป็นทางการที่ใช้ reflection มากเกินไปซึ่งทำให้การคอมไพล์ native image มีความท้าทาย ส่งผลให้เวลาในการเริ่มต้นเร็วขึ้นและใช้หน่วยความจำน้อยลง
ผู้ให้บริการ LLM ที่รองรับใน ProxyAsLocalModel
- พร็อกซีจาก: OpenAI, Claude, DashScope (Alibaba Qwen), Gemini, Deepseek, Mistral, SiliconFlow
- พร็อกซีเป็น: LM Studio, Ollama
- การรองรับ API: เฉพาะ API การแชทแบบสตรีมมิ่งเท่านั้น
การปรับปรุง JetBrains AI Assistant (เวอร์ชั่นปี 2025)
- ตัวเลือกการเปิด/ปิดในระดับโปรเจกต์
- การตั้งค่าความชอบสำหรับโมเดลแบบโลคอลเทียบกับออนไลน์
- รองรับผู้ให้บริการ LLM หลัก (OpenAI, Claude, Gemini)
- การผสานรวมกับ IDE ที่ดีขึ้นโดยรวม
วิวัฒนาการของ JetBrains AI Assistant และประสบการณ์ผู้ใช้
การสนทนาในชุมชนเผยให้เห็นการตอบรับที่หลากหลายแต่กำลังดีขึ้นของ JetBrains AI Assistant เวอร์ชันแรกๆ ถูกวิจารณ์เรื่องข้อจำกัดและแนวโน้มที่จะเขียนไฟล์ทั้งหมดใหม่แทนที่จะมุ่งเน้นที่ฟังก์ชันเฉพาะหรือบล็อกโค้ด
ฉันพยายามใช้ AI assistant ตอนที่มันออกมาใหม่ๆ แต่ดูเหมือนว่าฉันจะโง่เกินกว่าจะเข้าใจวิธีใช้มันอย่างถูกต้อง ฉันพยายามให้มันเขียนฟังก์ชันเดี่ยวๆ หรือบล็อกโค้ดสั้นๆ ให้ฉัน แต่มันมักจะเริ่มเขียนไฟล์ทั้งหมดใหม่ตั้งแต่ต้น ซึ่งช้าเกินไป
อย่างไรก็ตาม การอัปเดตล่าสุดได้ปรับปรุงความสามารถของเครื่องมือนี้อย่างมีนัยสำคัญ รุ่นปี 2025 มีการควบคุมระดับโปรเจกต์ที่ดีขึ้น รองรับผู้ให้บริการ LLM หลักเช่น OpenAI, Claude และ Gemini และปรับปรุงการทำงานร่วมกับ IDE ผู้ใช้รายงานความสำเร็จในการตรวจสอบโค้ด การสร้างจุดเชื่อมต่อ REST การเขียนการทดสอบ และการสำรวจไลบรารีที่ไม่คุ้นเคย การแนะนำ Junie ซึ่งเป็นระบบใหม่ของ JetBrains ก็ได้รับการตอบรับในเชิงบวกสำหรับการแก้ปัญหาที่ซับซ้อนซึ่ง LLM อื่นๆ มีปัญหา
ทางเลือกอื่นและข้อพิจารณาทางกฎหมาย
ในขณะที่ ProxyAsLocalModel นำเสนอวิธีหนึ่งในการขยายความสามารถของ JetBrains AI Assistant สมาชิกในชุมชนได้แนะนำทางเลือกอื่นเช่น OpenRouter ซึ่งให้การเข้าถึงโมเดลหลายร้อยโมเดลผ่านจุดเชื่อมต่อเดียวโดยไม่มีค่าใช้จ่ายเพิ่มเติมนอกเหนือจากราคาสาธารณะของผู้ให้บริการ โครงการที่คล้ายกันอื่นๆ ที่กล่าวถึงได้แก่ enchanted-ollama-openrouter-proxy และ LiteLLM Gateway
ข้อพิจารณาสำคัญที่ถูกหยิบยกในการสนทนาคือผลกระทบทางกฎหมายที่อาจเกิดขึ้นจากการใช้บริการ AI เชิงพาณิชย์สำหรับการพัฒนา ผู้ใช้บางรายชี้ให้เห็นว่าผู้ให้บริการ AI หลายรายมีข้อกำหนดห้ามแข่งขันในข้อตกลงการใช้บริการ ซึ่งอาจทำให้ธุรกิจเสี่ยงต่อปัญหาทางกฎหมายหากพวกเขาใช้บริการเหล่านี้เพื่อพัฒนาผลิตภัณฑ์ที่แข่งขันกัน สิ่งนี้ทำให้เกิดคำถามเกี่ยวกับกรณีการใช้งานที่เหมาะสมสำหรับเครื่องมือ AI เหล่านี้ในสภาพแวดล้อมระดับมืออาชีพ
ในขณะที่การพัฒนาด้วยความช่วยเหลือจาก AI ยังคงพัฒนาต่อไป เครื่องมือเช่น ProxyAsLocalModel แสดงถึงความมุ่งมั่นของชุมชนในการปรับแต่งและเพิ่มประสิทธิภาพการทำงานของพวกเขา แม้ว่าแพลตฟอร์มพื้นฐานจะมีการพัฒนาก็ตาม สำหรับนักพัฒนาที่ต้องการเพิ่มประสิทธิภาพการทำงานของตนกับ IDE ของ JetBrains โซลูชันพร็อกซีเหล่านี้เสนอวิธีการใช้บริการ LLM ที่ต้องการในขณะที่นำทางผ่านข้อจำกัดของการใช้งานเฉพาะแพลตฟอร์ม
อ้างอิง: ProxyAsLocalModel