ในการเคลื่อนไหวครั้งสำคัญสำหรับนักพัฒนา AI และผู้สนใจ Nvidia ได้เปิดตัวซูเปอร์คอมพิวเตอร์ AI ขนาดกะทัดรัดรุ่นล่าสุด ซึ่งถือเป็นก้าวกระโดดครั้งสำคัญในแง่ของอัตราส่วนราคาต่อประสิทธิภาพสำหรับการประมวลผล Edge Computing และการพัฒนา AI ผลิตภัณฑ์ใหม่นี้สัญญาว่าจะช่วยให้การพัฒนา AI เป็นที่แพร่หลายมากขึ้นด้วยความสามารถที่เพิ่มขึ้นในราคาที่จับต้องได้มากขึ้น
ยุคใหม่ของการประมวลผล AI ราคาประหยัด
Jetson Orin Nano Super เป็นนวัตกรรมล่าสุดของ Nvidia ในด้านแพลตฟอร์มการพัฒนา AI โดยมอบประสิทธิภาพที่น่าประทับใจถึง 67 TOPS ในราคาเพียง 8,700 บาท กลยุทธ์ด้านราคานี้ถือเป็นการเปลี่ยนแปลงครั้งสำคัญในตลาด โดยเสนอฮาร์ดแวร์ในราคาที่ถูกลงครึ่งหนึ่งเมื่อเทียบกับรุ่นก่อน แต่มีประสิทธิภาพเพิ่มขึ้น 70% บอร์ดพัฒนานี้สร้างมาตรฐานใหม่สำหรับการประมวลผล AI ระดับเริ่มต้น ทำให้การพัฒนา AI ขั้นสูงเข้าถึงได้ง่ายขึ้นสำหรับนักพัฒนาและนวัตกรในวงกว้าง
โมดูล Jetson Orin มอบการก้าวกระโดดครั้งใหญ่ด้านประสิทธิภาพ ด้วยการเพิ่มขึ้นของการประมวลผล AI สูงถึง 70% |
ข้อมูลจำเพาะทางเทคนิคและสถาปัตยกรรม
หัวใจสำคัญของ Jetson Orin Nano Super คือระบบที่ซับซ้อนที่สร้างขึ้นบนสถาปัตยกรรม Ampere ของ Nvidia บอร์ดนี้มาพร้อมกับ CPU Arm Cortex-A78AE แบบ 6 คอร์ที่ทำงานที่ความเร็ว 1.7 GHz พร้อมหน่วยความจำ LPDDR5 ขนาด 8GB ที่มีแบนด์วิดธ์ 102GB/s การกำหนดค่า GPU ประกอบด้วย CUDA cores 1,024 คอร์และ Tensor cores 32 คอร์ ทำงานที่ความเร็ว 1,020 MHz การผสมผสานของฮาร์ดแวร์นี้ทำให้ระบบสามารถส่งมอบประสิทธิภาพสูงสุด 67 TOPS สำหรับการคำนวณแบบ sparse หรือ 33 TOPS สำหรับการคำนวณแบบ dense
ข้อมูลจำเพาะที่สำคัญ:
- ซีพียู: 6-คอร์ Arm Cortex-A78AE ความเร็ว 1.7 GHz
- หน่วยความจำ: แรม LPDDR5 ขนาด 8GB (แบนด์วิดท์ 102GB/s)
- การ์ดจอ: CUDA cores 1,024 คอร์, Tensor cores 32 คอร์ ที่ความเร็ว 1,020 MHz
- ประสิทธิภาพ: 67 TOPS (แบบ sparse) / 33 TOPS (แบบ dense)
- ราคา: 249 ดอลลาร์สหรัฐ
การเชื่อมต่อและความเข้ากันได้
บอร์ดพัฒนานี้มาพร้อมตัวเลือกการเชื่อมต่อที่หลากหลาย รวมถึงพอร์ต USB 3.2 Type-A จำนวน 4 พอร์ตที่ทำงานที่ความเร็ว 10 Gbps, ขั้วต่อกล้อง MIPI CSI สองช่องที่รองรับกล้อง Raspberry Pi และขั้วต่อ M.2 ทั้งแบบ 2280 และ 2230 สำหรับ SSD การมี GPIO 40 พินที่เข้ากันได้กับ Raspberry Pi ช่วยเพิ่มความยืดหยุ่นให้กับบอร์ด ทำให้สามารถใช้งานร่วมกับอุปกรณ์เสริมของ Raspberry Pi ได้ การจ่ายไฟมีความยืดหยุ่น รองรับทั้ง USB-C และขั้วต่อแบบ barrel
การปรับปรุงประสิทธิภาพและการสนับสนุนซอฟต์แวร์
แพลตฟอร์มใหม่นี้แสดงให้เห็นถึงการปรับปรุงประสิทธิภาพที่สำคัญในการทำงานด้าน AI หลากหลายรูปแบบ ผู้ใช้สามารถคาดหวังการปรับปรุงประสิทธิภาพ Large Language Model ได้ 1.37x ถึง 1.63x, การปรับปรุงโมเดลด้านการมองเห็น 1.36x ถึง 2.04x และการเพิ่มประสิทธิภาพ vision transformers 1.43x ถึง 1.69x ระบบนี้ทำงานบน L4T ซึ่งเป็นระบบปฏิบัติการ Linux ที่ Nvidia พัฒนาขึ้นมาโดยเฉพาะสำหรับแพลตฟอร์มฮาร์ดแวร์ของตน
การปรับปรุงประสิทธิภาพ:
- ประสิทธิภาพของ LLM: เพิ่มขึ้น 1.37 ถึง 1.63 เท่า
- โมเดลการมองเห็น: เพิ่มขึ้น 1.36 ถึง 2.04 เท่า
- Vision Transformers: เพิ่มขึ้น 1.43 ถึง 1.69 เท่า
การวางจำหน่ายและผลกระทบต่อตลาด
Jetson Orin Nano Super มีจำหน่ายแล้วผ่านช่องทางการจัดจำหน่ายหลายช่องทาง รวมถึง Amazon, DigiKey, Arrow.com และ Seeed Studio การมีจำหน่ายอย่างแพร่หลายนี้ ประกอบกับราคาที่แข่งขันได้และการปรับปรุงประสิทธิภาพ ทำให้แพลตฟอร์มนี้เป็นตัวเลือกที่น่าสนใจสำหรับนักพัฒนาและนักวิจัย AI ที่ต้องการพัฒนาโครงการของตนโดยไม่ต้องลงทุนด้านฮาร์ดแวร์มากเกินไป