AMD ได้แสดงให้เห็นถึงความก้าวหน้าอย่างมีนัยสำคัญในด้านความสามารถการประมวลผล AI ด้วย APU รุ่น Strix Point ล่าสุด โดยแสดงให้เห็นถึงประสิทธิภาพที่น่าประทับใจในการใช้งานโมเดลภาษาขนาดใหญ่ (LLM) แบบประมวลผลในเครื่อง ผลการทดสอบล่าสุดของบริษัทเผยให้เห็นถึงอนาคตที่น่าตื่นเต้นของการประมวลผล AI ในฮาร์ดแวร์สำหรับผู้บริโภค
การก้าวกระโดดด้านประสิทธิภาพในการประมวลผล LLM
โปรเซสเซอร์เรือธง Ryzen AI 9 HX 375 ของ AMD แสดงให้เห็นถึงความสามารถที่โดดเด่นในการใช้งาน LLM โดยสามารถสร้างโทเค็นได้เร็วกว่า Intel Core Ultra 7 258V ถึง 27% การทดสอบซึ่งดำเนินการผ่าน LM Studio แสดงให้เห็นถึงความสามารถของโปรเซสเซอร์ในการจัดการโมเดล LLM ยอดนิยมต่างๆ ได้อย่างมีประสิทธิภาพสูง ไม่ว่าจะเป็น Llama 3.2 ของ Meta, Phi 3.1 ของ Microsoft, Gemma 2 ของ Google และโมเดล Nemo ของ Mistral
การเร่งความเร็ว GPU และการจัดการหน่วยความจำขั้นสูง
APU รุ่น Strix Point มาพร้อมกับคุณสมบัติการเร่งความเร็ว GPU ที่ซับซ้อนโดยใช้ Vulkan API ซึ่งพิสูจน์แล้วว่ามีประสิทธิภาพสูง เมื่อเปิดใช้งานการเร่งความเร็ว GPU, HX 375 แสดงประสิทธิภาพการประมวลผลโทเค็นต่อวินาทีที่เร็วกว่าถึง 20% เมื่อเทียบกับการทำงานแบบไม่มีการเร่งความเร็ว การนำเทคโนโลยี Variable Graphics Memory (VGM) มาใช้ช่วยให้สามารถจัดสรรหน่วยความจำแบบไดนามิก ส่งผลให้มีประสิทธิภาพเพิ่มขึ้นถึง 60% เมื่อใช้ร่วมกับการเร่งความเร็ว GPU
สภาพแวดล้อมการทดสอบที่ครอบคลุม
วิธีการทดสอบของ AMD ใช้ LM Studio ซึ่งเป็นแอปพลิเคชันเดสก์ท็อปที่ใช้งานง่ายและพัฒนาบนเฟรมเวิร์ก llama.cpp ซอฟต์แวร์นี้ได้รับการปรับแต่งสำหรับ CPU x86 ผ่านคำสั่ง AVX2 รวมถึงความสามารถในการเร่งความเร็ว GPU ทำให้เป็นแพลตฟอร์มที่แข็งแกร่งสำหรับการประเมินประสิทธิภาพ AI ในการใช้งานจริง ที่น่าสนใจคือ Ryzen AI 9 HX 375 สามารถทำผลงานได้ดีแม้จะใช้ RAM ที่ช้ากว่า (7500 MT/s) เมื่อเทียบกับระบบของ Intel ที่ใช้ 8533 MT/s
ผลกระทบในวงกว้างต่อ AI สำหรับผู้บริโภค
ความสำคัญของการพัฒนาประสิทธิภาพนี้ไม่ได้จำกัดอยู่แค่ตัวเลข แต่ยังชี้ให้เห็นถึงการวางตำแหน่งเชิงกลยุทธ์ของ AMD ในตลาด AI สำหรับผู้บริโภคที่กำลังเติบโต แม้ว่าการเปรียบเทียบกับโปรเซสเซอร์ระดับกลางของ Intel แทนที่จะเป็นรุ่นเรือธงจะทำให้เกิดคำถามเกี่ยวกับความเป็นผู้นำด้านประสิทธิภาพโดยรวม แต่ผลลัพธ์ก็แสดงให้เห็นถึงความมุ่งมั่นอย่างแข็งแกร่งของ AMD ในการพัฒนาความสามารถในการประมวลผล AI ที่ผู้บริโภคสามารถเข้าถึงได้
มองไปข้างหน้า
ในขณะที่การประมวลผล AI กำลังกลายเป็นส่วนสำคัญมากขึ้นในแอปพลิเคชันสำหรับผู้บริโภค ความได้เปรียบด้านประสิทธิภาพของ AMD ในการประมวลผล LLM ชี้ให้เห็นถึงทิศทางที่น่าสนใจสำหรับการพัฒนาฮาร์ดแวร์ในอนาคต การผสมผสานระหว่างความสามารถของ NPU และการเร่งความเร็ว GPU ที่มีประสิทธิภาพแสดงให้เห็นถึงแนวทางที่เป็นระบบในการจัดการงาน AI ซึ่งอาจกำหนดมาตรฐานใหม่สำหรับแพลตฟอร์มการประมวลผลแบบพกพา