ในการเปลี่ยนแปลงครั้งสำคัญจากแนวทางระบบนิเวศแบบปิดที่ใช้มาแต่เดิม Nvidia ได้ประกาศโปรแกรม NVLink Fusion ในงาน Computex 2025 ที่ไทเป โครงการนี้อนุญาตให้พันธมิตรสามารถผสานเทคโนโลยีการเชื่อมต่อความเร็วสูงที่เป็นกรรมสิทธิ์ของ Nvidia กับ CPU ที่ไม่ใช่ของ Nvidia และตัวเร่ง AI แบบกำหนดเอง ซึ่งอาจเปลี่ยนโฉมหน้าของสถาปัตยกรรมการประมวลผล AI ระดับองค์กร
![]() |
---|
ซีอีโอ Jen-Hsun Huang แนะนำโปรแกรม NVLink Fusion ที่งาน Computex 2025 พร้อมโชว์เทคโนโลยี spine ที่มีนวัตกรรมใหม่ |
ทลายกำแพงในโครงสร้างพื้นฐาน AI
เป็นเวลาหลายปีที่เทคโนโลยี NVLink ของ Nvidia เป็นหัวใจสำคัญของความเป็นผู้นำในงาน AI โดยมอบแบนด์วิดธ์และความหน่วงที่เหนือกว่าอินเทอร์เฟซ PCIe มาตรฐาน จนถึงขณะนี้ การเชื่อมต่อที่เป็นกรรมสิทธิ์นี้ถูกจำกัดให้ใช้กับซิลิคอนของ Nvidia เองเป็นส่วนใหญ่ โดยมีข้อยกเว้นจำกัด เช่น ความร่วมมือกับ IBM ในช่วงแรก โปรแกรม NVLink Fusion ใหม่นี้ถือเป็นการปรับเปลี่ยนกลยุทธ์ครั้งสำคัญ โดยเปิดเทคโนโลยีนี้ให้กับระบบนิเวศของพันธมิตรที่กว้างขึ้น รวมถึง Qualcomm และ Fujitsu สำหรับ CPU รวมถึง Marvell และ MediaTek สำหรับตัวเร่ง AI แบบกำหนดเอง
ความสามารถทางเทคนิคที่นิยามขนาดใหม่
ข้อกำหนดทางเทคนิคของ NVLink Fusion นั้นน่าประทับใจอย่างยิ่ง ตามที่ Jen-Hsun Huang ซีอีโอของ Nvidia กล่าว NVLink spine เพียงตัวเดียวสามารถถ่ายโอนข้อมูลได้ด้วยอัตราสูงถึง 130 TB/s ซึ่งเขาอ้างว่าเกินกว่าความสามารถในการรับส่งข้อมูลทั้งหมดของอินเทอร์เน็ต แม้ว่าการเปรียบเทียบดังกล่าวอาจมีข้อถกเถียง (โดยบางแหล่งข้อมูลระบุว่าอัตราการถ่ายโอนสูงสุดของอินเทอร์เน็ตเกิน 1,200 Tb/s) แต่เทคโนโลยีนี้ปฏิเสธไม่ได้ว่ามอบแบนด์วิดธ์ที่เปลี่ยนโฉมหน้าสำหรับคลัสเตอร์การประมวลผล AI ระบบนี้รองรับการขยายขนาดได้อย่างมหาศาล โดยเชื่อมต่อ GPU ได้สูงสุด 72 ตัวผ่านสถาปัตยกรรม spine เดียว
พันธมิตรหลักของ NVLink Fusion:
- พันธมิตรด้าน CPU: Qualcomm, Fujitsu
- พันธมิตรด้านซิลิคอน/ตัวเร่งความเร็ว: Marvell, MediaTek, Alchip
- พันธมิตรด้านการเชื่อมต่อ: Astera Labs
- ผู้ให้บริการเครื่องมือออกแบบ: Cadence, Synopsys
ข้อมูลจำเพาะทางเทคนิคของ NVLink:
- อัตราการถ่ายโอนข้อมูลต่อหนึ่งสไปน์: สูงถึง 130 TB/s
- จำนวน GPU สูงสุดต่อสไปน์: 72
- ข้อได้เปรียบด้านแบนด์วิดท์เมื่อเทียบกับ PCIe: สูงถึง 14 เท่า
พันธมิตรเชิงกลยุทธ์ขยายระบบนิเวศ
ระบบนิเวศ NVLink Fusion ได้ดึงดูดพันธมิตรสำคัญแล้ว Qualcomm ซึ่งเพิ่งยืนยันแผนการเข้าสู่ตลาด CPU เซิร์ฟเวอร์ สามารถรับประกันความเข้ากันได้กับโครงสร้างพื้นฐาน AI อันโดดเด่นของ Nvidia Fujitsu จะผสานเทคโนโลยีนี้กับ CPU Monaka 144 คอร์ที่กำลังจะมาถึง ซึ่งมีคอร์แบบ 3D-stacked เหนือหน่วยความจำที่เป็นนวัตกรรมใหม่ พันธมิตรด้านซิลิคอนรวมถึง Marvell, MediaTek และ Alchip จะพัฒนาตัวเร่ง AI แบบกำหนดเองที่เข้ากันได้กับระบบ ในขณะที่ Astera Labs เข้าร่วมเพื่อจัดหาส่วนประกอบการเชื่อมต่อเฉพาะทาง ผู้ให้บริการเครื่องมือออกแบบ Cadence และ Synopsys ช่วยเติมเต็มระบบนิเวศด้วยทรัพยากรซอฟต์แวร์และ IP ที่จำเป็น
![]() |
---|
แผนภาพแสดงการผสานรวม CPU แบบกำหนดเองและตัวเร่งความเร็วจากบริษัทภายนอกเข้ากับสถาปัตยกรรม NVLink Fusion ของ Nvidia |
การนำไปใช้ผ่านสถาปัตยกรรม Chiplet
การนำ NVLink Fusion ไปใช้ทางเทคนิคเกี่ยวข้องกับการผสานฟังก์ชันเข้าไปใน chiplet ที่วางอยู่ติดกับแพ็คเกจประมวลผล แนวทางนี้ช่วยให้พันธมิตรสามารถรักษาการออกแบบ CPU หรือตัวเร่งหลักของตนไว้ได้ ในขณะที่เพิ่มความเข้ากันได้กับ NVLink Nvidia ยังเปิดตัวซอฟต์แวร์ Mission Control ใหม่เพื่อรวมการดำเนินงานและการจัดการ ทำให้การตรวจสอบระดับระบบและการจัดการภาระงานง่ายขึ้น เพื่อเร่งเวลาในการออกสู่ตลาดสำหรับระบบผสมผสานที่ซับซ้อนเหล่านี้
วิธีการนำไปใช้งาน:
- การผสานผ่าน chiplet ที่วางอยู่ติดกับแพ็คเกจประมวลผล
- เข้ากันได้กับสถาปัตยกรรมระดับแร็ค
- รองรับโดยซอฟต์แวร์ Nvidia Mission Control สำหรับการจัดการระบบ
การแข่งขันและมาตรฐานในอุตสาหกรรม
น่าสังเกตว่าคู่แข่งหลักของ Nvidia อย่าง AMD, Intel และ Broadcom ไม่มีรายชื่อในพันธมิตร NVLink Fusion บริษัทเหล่านี้ได้เข้าร่วมกับกลุ่ม Ultra Accelerator Link (UALink) แทน ซึ่งมีเป้าหมายในการสร้างการเชื่อมต่อมาตรฐานอุตสาหกรรมแบบเปิดเพื่อเป็นทางเลือกแทนเทคโนโลยีกรรมสิทธิ์ของ Nvidia การพัฒนาคู่ขนานนี้เน้นย้ำถึงความตึงเครียดที่ดำเนินอยู่ระหว่างระบบนิเวศกรรมสิทธิ์และมาตรฐานเปิดในภูมิทัศน์ฮาร์ดแวร์ AI ที่กำลังพัฒนาอย่างรวดเร็ว
ผลกระทบต่อการใช้งาน AI ระดับองค์กร
การเปิดเทคโนโลยี NVLink ถือเป็นการเคลื่อนไหวเชิงกลยุทธ์ของ Nvidia เพื่อขยายอิทธิพลในขณะที่ตอบสนองความต้องการของลูกค้าสำหรับตัวเลือกโครงสร้างพื้นฐาน AI ที่ยืดหยุ่นมากขึ้น ด้วยการอนุญาตให้มีการผสานกับ CPU ที่ไม่ใช่ของ Nvidia บริษัทยังคงรักษาความเป็นผู้นำด้าน GPU ในขณะที่รองรับองค์กรที่อาจชอบสถาปัตยกรรม CPU ทางเลือกสำหรับภาระงานเฉพาะหรือข้อกำหนดด้านอธิปไตย แนวทางนี้อาจขยายตลาดที่ Nvidia สามารถเข้าถึงได้ ในขณะที่ยังคงใช้ประโยชน์จากจุดแข็งหลักในการเร่งความเร็ว AI
มุมมองในอนาคต
แม้ว่า NVLink Fusion จะมุ่งเป้าไปที่ศูนย์ข้อมูลและแอปพลิเคชันระดับองค์กรมากกว่าการประมวลผลสำหรับผู้บริโภค แต่การพัฒนานี้บ่งชี้ถึงการเปลี่ยนแปลงสำคัญในวิธีที่โครงสร้างพื้นฐานการประมวลผล AI อาจพัฒนาต่อไป เทคโนโลยีนี้เปิดโอกาสใหม่สำหรับการประมวลผลแบบผสมผสานในขนาดใหญ่ ซึ่งอาจมีอิทธิพลต่อแนวทางในอนาคตสำหรับสถาปัตยกรรมระบบในอุตสาหกรรม เมื่อภาระงาน AI ยังคงเติบโตในความซับซ้อนและขนาด ความสามารถในการเชื่อมต่อทรัพยากรการประมวลผลที่หลากหลายอย่างมีประสิทธิภาพจึงมีความสำคัญมากขึ้นสำหรับประสิทธิภาพและประสิทธิภาพด้านพลังงาน