Nvidia เปิดตัว Blackwell Ultra GB300: ประสิทธิภาพเพิ่มขึ้น 50% และหน่วยความจำ 288GB จะมาในปี 2025

BigGo Editorial Team
Nvidia เปิดตัว Blackwell Ultra GB300: ประสิทธิภาพเพิ่มขึ้น 50% และหน่วยความจำ 288GB จะมาในปี 2025

การแข่งขันด้านการประมวลผล AI ยังคงเร่งความเร็วขึ้นอย่างต่อเนื่อง เมื่อ Nvidia เปิดเผยฮาร์ดแวร์รุ่นถัดไปที่ออกแบบมาเพื่อรองรับงาน AI ที่ต้องการประสิทธิภาพสูงสุด ต่อยอดจากสถาปัตยกรรม Blackwell ที่น่าประทับใจอยู่แล้ว บริษัทได้ประกาศการอัปเกรดครั้งสำคัญด้วย Blackwell Ultra GB300 ซึ่งให้คำมั่นว่าจะมีการปรับปรุงประสิทธิภาพอย่างมากและเพิ่มความจุหน่วยความจำเพื่อรองรับโมเดล AI ที่ซับซ้อนมากขึ้น

Nvidia Blackwell Ultra GB300 แสดงถึงการยกระดับที่สำคัญในเทคโนโลยีการประมวลผล AI
Nvidia Blackwell Ultra GB300 แสดงถึงการยกระดับที่สำคัญในเทคโนโลยีการประมวลผล AI

Blackwell Ultra GB300: ก้าวกระโดดด้านประสิทธิภาพสำหรับการประมวลผล AI

Blackwell Ultra GB300 ที่ Nvidia ประกาศล่าสุดแสดงถึงวิวัฒนาการครั้งสำคัญของแพลตฟอร์มการประมวลผล AI ของบริษัท โดยมีกำหนดวางจำหน่ายในช่วงครึ่งหลังของปี 2025 GB300 ยังคงรักษาประสิทธิภาพ AI ที่ 20 เพตาฟล็อปส์ต่อชิปเท่ากับ Blackwell รุ่นดั้งเดิม แต่เพิ่มความจุหน่วยความจำอย่างมีนัยสำคัญเป็น 288GB ของหน่วยความจำ HBM3e จากเดิม 192GB ในรุ่นมาตรฐาน การเพิ่มหน่วยความจำ 50% นี้ช่วยให้สามารถจัดการกับโมเดล AI ที่ใหญ่ขึ้นและงานที่ซับซ้อนมากขึ้น โซลูชัน NVL72 ระดับแร็คของ GB300 เชื่อมต่อ GPU Blackwell Ultra 72 ตัวกับ CPU Arm Neoverse 36 ตัว ทำงานเสมือนเป็น GPU ขนาดใหญ่เพียงตัวเดียวที่สามารถให้ประสิทธิภาพการคำนวณ FP4 ถึง 1.1 เอกซาฟล็อปส์

คุณสมบัติหลักของ Nvidia Blackwell Ultra (GB300):

  • ประสิทธิภาพ AI: 20 เพตาฟล็อปต่อชิป (เท่ากับ Blackwell มาตรฐาน)
  • หน่วยความจำ: 288GB HBM3e (เพิ่มขึ้น 50% จาก 192GB)
  • ประสิทธิภาพของแร็ค GB300 NVL72: 1.1 เอกซาฟล็อปของการคำนวณ FP4
  • หน่วยความจำของ GB300 NVL72: 20TB หน่วยความจำ HBM, 40TB "หน่วยความจำความเร็วสูง"
  • แบนด์วิดธ์ NVLink: 130TB/วินาที
  • เครือข่าย: 14.4 TB/วินาที
  • กำหนดการเปิดตัว: ครึ่งหลังของปี 2025

เพิ่มขีดความสามารถในการคิดวิเคราะห์ของ AI

หนึ่งในความก้าวหน้าที่สำคัญที่สุดใน Blackwell Ultra คือความสามารถในการเร่งงานการคิดวิเคราะห์ของ AI ตามข้อมูลจาก Nvidia การกำหนดค่า GB300 NVL72 สามารถรันสำเนาแบบโต้ตอบของ DeepSeek-R1 671B และให้คำตอบในเวลาเพียง 10 วินาที เทียบกับ 1.5 นาทีที่ต้องใช้โดยรุ่น H100 ของรุ่นก่อนหน้า การปรับปรุงที่น่าทึ่งนี้มาจากความสามารถในการประมวลผล 1,000 โทเค็นต่อวินาที ซึ่งเร็วกว่าชิปของ Nvidia ในปี 2022 ถึง 10 เท่า การปรับปรุงนี้ช่วยให้โมเดล AI สามารถสำรวจเส้นทางการแก้ปัญหาที่แตกต่างกันและแยกคำขอที่ซับซ้อนออกเป็นหลายขั้นตอน ส่งผลให้ได้คำตอบที่มีคุณภาพสูงขึ้น

การเปรียบเทียบประสิทธิภาพ:

  • Blackwell Ultra เทียบกับ H100: ประมวลผลโมเดลภาษาขนาดใหญ่เร็วกว่า 11 เท่า
  • Blackwell Ultra เทียบกับ H100: มีกำลังการคำนวณมากกว่า 7 เท่า
  • Blackwell Ultra เทียบกับ H100: มีหน่วยความจำใหญ่กว่า 4 เท่า
  • Blackwell Ultra ประมวลผลโทเค็น: 1,000 โทเค็นต่อวินาที (เร็วกว่าชิปปี 2022 ถึง 10 เท่า)
  • แร็ค Rubin Ultra เทียบกับแร็ค Blackwell Ultra: ประสิทธิภาพดีขึ้น 14 เท่า

ขยายการเข้าถึงด้วย DGX Station

ในการเปลี่ยนแปลงที่น่าสนใจจากการเปิดตัวฮาร์ดแวร์ AI ระดับสูงก่อนหน้านี้ Nvidia จะทำให้ชิป Blackwell Ultra แบบเดี่ยวมีให้บริการในรูปแบบเดสก์ท็อปที่เรียกว่า DGX Station เวิร์กสเตชันที่ทรงพลังนี้มาพร้อมกับ GPU Blackwell Ultra GB300 หนึ่งตัว หน่วยความจำระบบรวม 784GB และการเชื่อมต่อเครือข่าย Nvidia ความเร็ว 800Gbps ในตัว ผู้ผลิตรายใหญ่รวมถึง Asus, Dell, HP, Boxx, Lambda และ Supermicro จะนำเสนอเวอร์ชันของระบบเดสก์ท็อปนี้ ซึ่งนำความสามารถในการประมวลผล AI ระดับแร็คมาสู่เวิร์กสเตชันส่วนบุคคล

แผนงานในอนาคต: Vera Rubin และอื่นๆ

มองไปข้างหน้า Nvidia ยังได้เปิดเผยสถาปัตยกรรม Vera Rubin ที่กำลังจะมาถึง ซึ่งมีกำหนดในช่วงครึ่งหลังของปี 2026 โดยจะมอบประสิทธิภาพ FP4 50 เพตาฟล็อปส์ต่อชิป ซึ่งมากกว่า Blackwell Ultra 2.5 เท่า ตามด้วย Rubin Ultra ในช่วงครึ่งหลังของปี 2027 ซึ่งมีประสิทธิภาพเสมือนมี GPU Rubin สองตัวเชื่อมต่อกันเพื่อส่งมอบประสิทธิภาพ FP4 100 เพตาฟล็อปส์ และมีหน่วยความจำเกือบสี่เท่าที่ 1TB แร็ค NVL576 เต็มรูปแบบของ Rubin Ultra คาดว่าจะให้ประสิทธิภาพการอนุมาน FP4 15 เอกซาฟล็อปส์และการเทรนนิ่ง FP8 5 เอกซาฟล็อปส์ ซึ่งเพิ่มขึ้น 14 เท่าเมื่อเทียบกับแร็ค Blackwell Ultra ของปีนี้

แผนงานอนาคตของ GPU จาก Nvidia:

  • Blackwell Ultra ( GB300 ): ครึ่งหลังของปี 2025, 288GB HBM3e
  • Vera Rubin : ครึ่งหลังของปี 2026, 50 เพตาฟล็อปส์ FP4
  • Rubin Ultra : ครึ่งหลังของปี 2027, 100 เพตาฟล็อปส์ FP4, หน่วยความจำ 1TB
  • Feynman : ปี 2028

ผลกระทบต่อตลาดและความต้องการของอุตสาหกรรม

Jensen Huang ซีอีโอของ Nvidia เน้นย้ำระหว่างการประกาศว่าอุตสาหกรรมต้องการมากกว่าที่เราคิดว่าต้องการเมื่อปีที่แล้วถึง 100 เท่า เพื่อตามทันความต้องการการประมวลผล AI คำกล่าวนี้มาพร้อมกับการเปิดเผยของ Nvidia ว่าบริษัทได้จัดส่งฮาร์ดแวร์ Blackwell มูลค่า 11 พันล้านดอลลาร์สหรัฐแล้ว โดยผู้ซื้อรายใหญ่สี่รายแรกได้ซื้อชิป Blackwell ไปแล้ว 1.8 ล้านชิปในปี 2025 ตัวเลขเหล่านี้ชี้ให้เห็นถึงการเติบโตอย่างรวดเร็วของความต้องการในการประมวลผล AI และตำแหน่งที่โดดเด่นของ Nvidia ในการจัดหาฮาร์ดแวร์ที่จำเป็น

มองไปข้างหน้าในอนาคต

นอกเหนือจาก Vera Rubin แล้ว Nvidia ยังประกาศว่าสถาปัตยกรรมปี 2028 ของบริษัทจะมีชื่อว่า Feynman ซึ่งน่าจะตั้งตามนักฟิสิกส์ทฤษฎีชื่อดัง Richard Feynman แผนงานที่ต่อเนื่องนี้แสดงให้เห็นถึงความมุ่งมั่นของ Nvidia ในการรักษาตำแหน่งผู้นำในด้านฮาร์ดแวร์การประมวลผล AI ในอนาคตอันใกล้ โดยแต่ละรุ่นให้คำมั่นว่าจะมีการปรับปรุงประสิทธิภาพที่สำคัญเพื่อตอบสนองความต้องการที่เพิ่มขึ้นอย่างรวดเร็วของงานด้านปัญญาประดิษฐ์