Nvidia เปิดตัวโปรแกรม NVLink Fusion ให้กับพันธมิตร เปิดทางให้ใช้ CPU และตัวเร่ง AI แบบกำหนดเองในระบบนิเวศของบริษัท

BigGo Editorial Team
Nvidia เปิดตัวโปรแกรม NVLink Fusion ให้กับพันธมิตร เปิดทางให้ใช้ CPU และตัวเร่ง AI แบบกำหนดเองในระบบนิเวศของบริษัท

ในการเปลี่ยนแปลงครั้งสำคัญจากแนวทางระบบนิเวศแบบปิดที่ใช้มาแต่เดิม Nvidia ได้ประกาศโปรแกรม NVLink Fusion ในงาน Computex 2025 ที่ไทเป โครงการนี้อนุญาตให้พันธมิตรสามารถผสานเทคโนโลยีการเชื่อมต่อความเร็วสูงที่เป็นกรรมสิทธิ์ของ Nvidia กับ CPU ที่ไม่ใช่ของ Nvidia และตัวเร่ง AI แบบกำหนดเอง ซึ่งอาจเปลี่ยนโฉมหน้าของสถาปัตยกรรมการประมวลผล AI ระดับองค์กร

ซีอีโอ Jen-Hsun Huang แนะนำโปรแกรม NVLink Fusion ที่งาน Computex 2025 พร้อมโชว์เทคโนโลยี spine ที่มีนวัตกรรมใหม่
ซีอีโอ Jen-Hsun Huang แนะนำโปรแกรม NVLink Fusion ที่งาน Computex 2025 พร้อมโชว์เทคโนโลยี spine ที่มีนวัตกรรมใหม่

ทลายกำแพงในโครงสร้างพื้นฐาน AI

เป็นเวลาหลายปีที่เทคโนโลยี NVLink ของ Nvidia เป็นหัวใจสำคัญของความเป็นผู้นำในงาน AI โดยมอบแบนด์วิดธ์และความหน่วงที่เหนือกว่าอินเทอร์เฟซ PCIe มาตรฐาน จนถึงขณะนี้ การเชื่อมต่อที่เป็นกรรมสิทธิ์นี้ถูกจำกัดให้ใช้กับซิลิคอนของ Nvidia เองเป็นส่วนใหญ่ โดยมีข้อยกเว้นจำกัด เช่น ความร่วมมือกับ IBM ในช่วงแรก โปรแกรม NVLink Fusion ใหม่นี้ถือเป็นการปรับเปลี่ยนกลยุทธ์ครั้งสำคัญ โดยเปิดเทคโนโลยีนี้ให้กับระบบนิเวศของพันธมิตรที่กว้างขึ้น รวมถึง Qualcomm และ Fujitsu สำหรับ CPU รวมถึง Marvell และ MediaTek สำหรับตัวเร่ง AI แบบกำหนดเอง

ความสามารถทางเทคนิคที่นิยามขนาดใหม่

ข้อกำหนดทางเทคนิคของ NVLink Fusion นั้นน่าประทับใจอย่างยิ่ง ตามที่ Jen-Hsun Huang ซีอีโอของ Nvidia กล่าว NVLink spine เพียงตัวเดียวสามารถถ่ายโอนข้อมูลได้ด้วยอัตราสูงถึง 130 TB/s ซึ่งเขาอ้างว่าเกินกว่าความสามารถในการรับส่งข้อมูลทั้งหมดของอินเทอร์เน็ต แม้ว่าการเปรียบเทียบดังกล่าวอาจมีข้อถกเถียง (โดยบางแหล่งข้อมูลระบุว่าอัตราการถ่ายโอนสูงสุดของอินเทอร์เน็ตเกิน 1,200 Tb/s) แต่เทคโนโลยีนี้ปฏิเสธไม่ได้ว่ามอบแบนด์วิดธ์ที่เปลี่ยนโฉมหน้าสำหรับคลัสเตอร์การประมวลผล AI ระบบนี้รองรับการขยายขนาดได้อย่างมหาศาล โดยเชื่อมต่อ GPU ได้สูงสุด 72 ตัวผ่านสถาปัตยกรรม spine เดียว

พันธมิตรหลักของ NVLink Fusion:

  • พันธมิตรด้าน CPU: Qualcomm, Fujitsu
  • พันธมิตรด้านซิลิคอน/ตัวเร่งความเร็ว: Marvell, MediaTek, Alchip
  • พันธมิตรด้านการเชื่อมต่อ: Astera Labs
  • ผู้ให้บริการเครื่องมือออกแบบ: Cadence, Synopsys

ข้อมูลจำเพาะทางเทคนิคของ NVLink:

  • อัตราการถ่ายโอนข้อมูลต่อหนึ่งสไปน์: สูงถึง 130 TB/s
  • จำนวน GPU สูงสุดต่อสไปน์: 72
  • ข้อได้เปรียบด้านแบนด์วิดท์เมื่อเทียบกับ PCIe: สูงถึง 14 เท่า

พันธมิตรเชิงกลยุทธ์ขยายระบบนิเวศ

ระบบนิเวศ NVLink Fusion ได้ดึงดูดพันธมิตรสำคัญแล้ว Qualcomm ซึ่งเพิ่งยืนยันแผนการเข้าสู่ตลาด CPU เซิร์ฟเวอร์ สามารถรับประกันความเข้ากันได้กับโครงสร้างพื้นฐาน AI อันโดดเด่นของ Nvidia Fujitsu จะผสานเทคโนโลยีนี้กับ CPU Monaka 144 คอร์ที่กำลังจะมาถึง ซึ่งมีคอร์แบบ 3D-stacked เหนือหน่วยความจำที่เป็นนวัตกรรมใหม่ พันธมิตรด้านซิลิคอนรวมถึง Marvell, MediaTek และ Alchip จะพัฒนาตัวเร่ง AI แบบกำหนดเองที่เข้ากันได้กับระบบ ในขณะที่ Astera Labs เข้าร่วมเพื่อจัดหาส่วนประกอบการเชื่อมต่อเฉพาะทาง ผู้ให้บริการเครื่องมือออกแบบ Cadence และ Synopsys ช่วยเติมเต็มระบบนิเวศด้วยทรัพยากรซอฟต์แวร์และ IP ที่จำเป็น

แผนภาพแสดงการผสานรวม CPU แบบกำหนดเองและตัวเร่งความเร็วจากบริษัทภายนอกเข้ากับสถาปัตยกรรม NVLink Fusion ของ Nvidia
แผนภาพแสดงการผสานรวม CPU แบบกำหนดเองและตัวเร่งความเร็วจากบริษัทภายนอกเข้ากับสถาปัตยกรรม NVLink Fusion ของ Nvidia

การนำไปใช้ผ่านสถาปัตยกรรม Chiplet

การนำ NVLink Fusion ไปใช้ทางเทคนิคเกี่ยวข้องกับการผสานฟังก์ชันเข้าไปใน chiplet ที่วางอยู่ติดกับแพ็คเกจประมวลผล แนวทางนี้ช่วยให้พันธมิตรสามารถรักษาการออกแบบ CPU หรือตัวเร่งหลักของตนไว้ได้ ในขณะที่เพิ่มความเข้ากันได้กับ NVLink Nvidia ยังเปิดตัวซอฟต์แวร์ Mission Control ใหม่เพื่อรวมการดำเนินงานและการจัดการ ทำให้การตรวจสอบระดับระบบและการจัดการภาระงานง่ายขึ้น เพื่อเร่งเวลาในการออกสู่ตลาดสำหรับระบบผสมผสานที่ซับซ้อนเหล่านี้

วิธีการนำไปใช้งาน:

  • การผสานผ่าน chiplet ที่วางอยู่ติดกับแพ็คเกจประมวลผล
  • เข้ากันได้กับสถาปัตยกรรมระดับแร็ค
  • รองรับโดยซอฟต์แวร์ Nvidia Mission Control สำหรับการจัดการระบบ

การแข่งขันและมาตรฐานในอุตสาหกรรม

น่าสังเกตว่าคู่แข่งหลักของ Nvidia อย่าง AMD, Intel และ Broadcom ไม่มีรายชื่อในพันธมิตร NVLink Fusion บริษัทเหล่านี้ได้เข้าร่วมกับกลุ่ม Ultra Accelerator Link (UALink) แทน ซึ่งมีเป้าหมายในการสร้างการเชื่อมต่อมาตรฐานอุตสาหกรรมแบบเปิดเพื่อเป็นทางเลือกแทนเทคโนโลยีกรรมสิทธิ์ของ Nvidia การพัฒนาคู่ขนานนี้เน้นย้ำถึงความตึงเครียดที่ดำเนินอยู่ระหว่างระบบนิเวศกรรมสิทธิ์และมาตรฐานเปิดในภูมิทัศน์ฮาร์ดแวร์ AI ที่กำลังพัฒนาอย่างรวดเร็ว

ผลกระทบต่อการใช้งาน AI ระดับองค์กร

การเปิดเทคโนโลยี NVLink ถือเป็นการเคลื่อนไหวเชิงกลยุทธ์ของ Nvidia เพื่อขยายอิทธิพลในขณะที่ตอบสนองความต้องการของลูกค้าสำหรับตัวเลือกโครงสร้างพื้นฐาน AI ที่ยืดหยุ่นมากขึ้น ด้วยการอนุญาตให้มีการผสานกับ CPU ที่ไม่ใช่ของ Nvidia บริษัทยังคงรักษาความเป็นผู้นำด้าน GPU ในขณะที่รองรับองค์กรที่อาจชอบสถาปัตยกรรม CPU ทางเลือกสำหรับภาระงานเฉพาะหรือข้อกำหนดด้านอธิปไตย แนวทางนี้อาจขยายตลาดที่ Nvidia สามารถเข้าถึงได้ ในขณะที่ยังคงใช้ประโยชน์จากจุดแข็งหลักในการเร่งความเร็ว AI

มุมมองในอนาคต

แม้ว่า NVLink Fusion จะมุ่งเป้าไปที่ศูนย์ข้อมูลและแอปพลิเคชันระดับองค์กรมากกว่าการประมวลผลสำหรับผู้บริโภค แต่การพัฒนานี้บ่งชี้ถึงการเปลี่ยนแปลงสำคัญในวิธีที่โครงสร้างพื้นฐานการประมวลผล AI อาจพัฒนาต่อไป เทคโนโลยีนี้เปิดโอกาสใหม่สำหรับการประมวลผลแบบผสมผสานในขนาดใหญ่ ซึ่งอาจมีอิทธิพลต่อแนวทางในอนาคตสำหรับสถาปัตยกรรมระบบในอุตสาหกรรม เมื่อภาระงาน AI ยังคงเติบโตในความซับซ้อนและขนาด ความสามารถในการเชื่อมต่อทรัพยากรการประมวลผลที่หลากหลายอย่างมีประสิทธิภาพจึงมีความสำคัญมากขึ้นสำหรับประสิทธิภาพและประสิทธิภาพด้านพลังงาน