Instinct MI300X ของ AMD เปิดตัวในการทดสอบ MLPerf: แข่งขันได้กับ NVIDIA H100 แต่ยังมีความท้าทาย

BigGo Editorial Team
Instinct MI300X ของ AMD เปิดตัวในการทดสอบ MLPerf: แข่งขันได้กับ NVIDIA H100 แต่ยังมีความท้าทาย

AMD ได้เปิดเผยผลการทดสอบประสิทธิภาพของตัวเร่งประมวลผล AI Instinct MI300X ที่รอคอยกันมานาน ซึ่งถือเป็นก้าวสำคัญในการผลักดันตัวเองเข้าสู่ตลาดฮาร์ดแวร์ AI ที่มีการแข่งขันสูง ผลลัพธ์ที่ได้แม้จะน่าสนใจ แต่ก็เผยให้เห็นทั้งจุดแข็งและจุดที่ต้องปรับปรุง ในขณะที่ AMD พยายามท้าทายความเป็นผู้นำของ NVIDIA

ประสิทธิภาพที่แข่งขันได้ แต่มีข้อควรพิจารณา

ในการทดสอบ MLPerf v4.1 AI โดยเฉพาะกับโมเดล Llama 2 70B MI300X แสดงประสิทธิภาพใกล้เคียงกับ GPU H100 ของ NVIDIA:

  • สถานการณ์เซิร์ฟเวอร์: MI300X ทำผลงานได้ดีกว่า H100 เล็กน้อย (21,028 เทียบกับ 20,605 โทเค็น/วินาที)
  • สถานการณ์ออฟไลน์: MI300X ตามหลัง H100 เล็กน้อย (23,514 เทียบกับ 24,323 โทเค็น/วินาที)

แม้ว่าผลลัพธ์เหล่านี้จะแสดงให้เห็นถึงความสามารถในการแข่งขันของ AMD แต่ก็มีบริบทสำคัญที่ต้องพิจารณา MI300X มีประสิทธิภาพทางทฤษฎีที่สูงกว่ามาก (2.6 POPS เทียบกับ 1.98 TFLOPS สำหรับ H100) และมีความจุหน่วยความจำมากกว่าสองเท่า (192GB เทียบกับ 80GB) ซึ่งบ่งชี้ว่า AMD อาจยังไม่สามารถใช้ศักยภาพของฮาร์ดแวร์ได้อย่างเต็มที่ ซึ่งอาจเป็นเพราะความท้าทายในการปรับแต่งซอฟต์แวร์

การเปรียบเทียบเกณฑ์มาตรฐานประสิทธิภาพระหว่างแพลตฟอร์ม MI300X ของ AMD และ H100 ของ Nvidia
การเปรียบเทียบเกณฑ์มาตรฐานประสิทธิภาพระหว่างแพลตฟอร์ม MI300X ของ AMD และ H100 ของ Nvidia

ข้อมูลจำเพาะทางฮาร์ดแวร์

MI300X สร้างความประทับใจด้วยความสามารถทางเทคนิค:

  • 153 พันล้านทรานซิสเตอร์ ใช้กระบวนการผลิต 5nm และ 6nm ของ TSMC
  • 320 หน่วยประมวลผล (304 หน่วยทำงานในการกำหนดค่าปัจจุบัน)
  • หน่วยความจำ HBM3 ขนาด 192GB พร้อมแบนด์วิดธ์ 5.3 TB/วินาที
  • Infinity Fabric รุ่นที่ 4 สำหรับการเชื่อมต่อ

มองไปข้างหน้า: ความท้าทายและโอกาส

  1. การปรับแต่งซอฟต์แวร์: ชุดซอฟต์แวร์ ROCm ของ AMD จะมีความสำคัญในการลดช่องว่างกับระบบนิเวศ CUDA ที่พัฒนามาอย่างยาวนานของ NVIDIA

  2. การแข่งขันที่กำลังจะมาถึง: GPU รุ่น H200 และ B200 ในอนาคตของ NVIDIA สัญญาว่าจะมีประสิทธิภาพที่เพิ่มขึ้นอย่างมีนัยสำคัญ ซึ่งจะยังคงกดดัน AMD

  3. ข้อได้เปรียบด้านหน่วยความจำ: ความจุหน่วยความจำขนาดใหญ่ของ MI300X อาจเป็นจุดแตกต่างสำคัญในการรองรับโมเดล AI ขนาดใหญ่

  4. ต้องการการทดสอบที่หลากหลายมากขึ้น: AMD เพิ่งเปิดเผยผลลัพธ์ของ Llama 2 70B เท่านั้น ประสิทธิภาพในชุดการทดสอบ MLPerf ทั้งหมดจะให้ภาพที่ครอบคลุมมากขึ้น

  5. ฮาร์ดแวร์รุ่นถัดไป: AMD วางแผนที่จะเปิดตัว MI325X พร้อมหน่วยความจำ HBM3e ขนาด 288GB ในปลายปีนี้ ซึ่งอาจก้าวข้าม NVIDIA ในด้านความจุหน่วยความจำ

ในขณะที่ AMD ยังคงปรับปรุงฮาร์ดแวร์และชุดซอฟต์แวร์ AI การแข่งขันในตลาดตัวเร่งประมวลผล AI กำลังจะทวีความเข้มข้นขึ้น แม้ว่า MI300X จะแสดงให้เห็นถึงศักยภาพ แต่ AMD ยังคงต้องทำงานอีกมากเพื่อใช้ประโยชน์จากข้อได้เปรียบทางฮาร์ดแวร์อย่างเต็มที่และท้าทายตำแหน่งที่มั่นคงของ NVIDIA

ภาพรวมเชิงโปรโมทของแพลตฟอร์ม AMD Instinct™ ที่เน้นย้ำคุณสมบัติและความสามารถขั้นสูงที่จำเป็นสำหรับการประมวลผล AI
ภาพรวมเชิงโปรโมทของแพลตฟอร์ม AMD Instinct™ ที่เน้นย้ำคุณสมบัติและความสามารถขั้นสูงที่จำเป็นสำหรับการประมวลผล AI