นวัตกรรมชิปล่าสุดของ Google แสดงให้เห็นถึงการเปลี่ยนแปลงที่สำคัญในแนวทางของบริษัทต่อการประมวลผลปัญญาประดิษฐ์ โดยมุ่งเน้นไปที่ความต้องการที่เพิ่มขึ้นของ AI Inference มากกว่าแค่การฝึกฝนโมเดล ยักษ์ใหญ่ด้านเทคโนโลยีได้ตระหนักว่าเมื่อโมเดล AI พัฒนาไปสู่ความสามารถในการใช้เหตุผล ต้นทุนในการประมวลผลกำลังเปลี่ยนจากขั้นตอนการพัฒนาไปสู่การนำไปใช้งานจริง
การเปลี่ยนไปสู่การประมวลผล Inference
ในงาน Google Cloud Next 25 Google ได้เปิดตัว Ironwood ซึ่งเป็น Tensor Processing Unit (TPU) รุ่นที่ 7 ต่างจากรุ่นก่อนหน้าที่ถูกวางตำแหน่งหลักสำหรับงาน AI Training Ironwood แสดงถึงการเปลี่ยนกลยุทธ์ไปสู่ Inference - กระบวนการทำนายผลจากโมเดล AI ที่ผ่านการฝึกฝนแล้วเพื่อตอบสนองต่อคำขอของผู้ใช้ การเปลี่ยนแปลงนี้ยอมรับถึงจุดเปลี่ยนทางเศรษฐกิจในปัญญาประดิษฐ์ ที่อุตสาหกรรมกำลังเปลี่ยนจากโครงการวิจัยเชิงทดลองไปสู่การนำโมเดล AI ไปใช้งานจริงอย่างแพร่หลายโดยธุรกิจต่างๆ
ความก้าวหน้าทางเทคนิค
Ironwood มอบการพัฒนาทางเทคนิคที่น่าประทับใจเมื่อเทียบกับรุ่นก่อนหน้า TPU Trillium รุ่นที่ 6 Google อ้างว่าชิปใหม่นี้มีประสิทธิภาพต่อวัตต์เพิ่มขึ้นเป็นสองเท่า โดยให้การประมวลผลแบบจุดลอยตัว 29.3 ล้านล้านครั้งต่อวินาที ความจุหน่วยความจำได้เพิ่มขึ้นอย่างมากเป็น 192GB ของหน่วยความจำแบบแบนด์วิดท์สูง (HBM) ต่อชิป - มากกว่า Trillium ถึงหกเท่า นอกจากนี้ แบนด์วิดท์หน่วยความจำยังได้รับการเพิ่มขึ้น 4.5 เท่าเป็น 7.2 เทราบิตต่อวินาที ช่วยให้สามารถเคลื่อนย้ายข้อมูลได้มากขึ้นทั้งภายในชิปและระหว่างระบบ
ข้อมูลจำเพาะของ Ironwood TPU เทียบกับรุ่นก่อนหน้า (Trillium)
คุณสมบัติ | Ironwood (รุ่นที่ 7) | Trillium (รุ่นที่ 6) | การปรับปรุง |
---|---|---|---|
ประสิทธิภาพต่อวัตต์ | 29.3 TFLOPS | ~14.65 TFLOPS | 2 เท่า |
ความจุหน่วยความจำ HBM | 192GB ต่อชิป | 32GB ต่อชิป | 6 เท่า |
แบนด์วิดท์หน่วยความจำ | 7.2 TBps | 1.6 TBps | 4.5 เท่า |
ประสิทธิภาพการคำนวณสูงสุดต่อชิป | 4,614 TFLOPs | ไม่ระบุ | - |
การขยายขนาดสูงสุด | 9,216 ชิปต่อพอด | "หลายแสน" | - |
การคำนวณรวมเมื่อขยายขนาด | 42.5 เอกซาฟลอปส์ | ไม่ระบุ | - |
ความสามารถในการขยายขนาด
สิ่งที่น่าประทับใจที่สุดคือความสามารถในการขยายขนาดของ Ironwood TPU สามารถขยายได้ถึง 9,216 ชิปต่อพอด ให้พลังการประมวลผลมหาศาลถึง 42.5 เอกซาฟล็อปส์ เพื่อให้เข้าใจภาพ Google ระบุว่านี่มีพลังการประมวลผลมากกว่า El Capitan ซึ่งปัจจุบันเป็นซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในโลกถึง 24 เท่า ศักยภาพในการขยายขนาดอันมหาศาลนี้ยังได้รับการเสริมด้วยซอฟต์แวร์ Pathways ที่ออกแบบโดย DeepMind ของ Google ซึ่งช่วยให้นักพัฒนาสามารถใช้ประโยชน์จาก Ironwood TPU หลายหมื่นตัวที่ทำงานร่วมกัน
นัยทางเศรษฐกิจ
จังหวะเวลาในการเปิดตัว Ironwood มีความสำคัญเป็นพิเศษเมื่อพิจารณาถึงต้นทุนที่เพิ่มขึ้นของโครงสร้างพื้นฐาน AI นักวิเคราะห์จาก Wall Street ให้ความสนใจเพิ่มขึ้นกับค่าใช้จ่ายมหาศาลที่เกี่ยวข้องกับการสร้างและการนำระบบ AI ไปใช้ โดยเฉพาะอย่างยิ่งเมื่อโมเดลอย่าง Gemini ของ Google กำลังพัฒนาไปสู่ความสามารถในการใช้เหตุผลซึ่งเพิ่มความต้องการในการประมวลผลอย่างมาก ด้วยการพัฒนาชิป Inference ประสิทธิภาพสูงของตัวเอง Google อาจสามารถลดการพึ่งพาผู้ผลิตอย่าง Nvidia, AMD และ Intel ซึ่งอาจช่วยประหยัดค่าใช้จ่ายด้านโครงสร้างพื้นฐานได้หลายพันล้าน
การวางตำแหน่งในตลาด
แม้ว่า Google ได้พัฒนา TPU มากว่าทศวรรษผ่านหกรุ่นก่อนหน้านี้ แต่การวางตำแหน่ง Ironwood อย่างชัดเจนว่าเป็นชิปที่เน้น Inference เป็นหลักถือเป็นการเปลี่ยนแปลงจากแนวทางในอดีต ก่อนหน้านี้ Google ได้อธิบาย TPU ว่าเป็นการลงทุนที่จำเป็นสำหรับการวิจัยล้ำสมัยแต่ไม่ใช่ทางเลือกแทนชิปจากผู้ผลิตที่มีชื่อเสียง ตลาด Inference ถือว่ามีปริมาณสูงในโลกของชิป เนื่องจากต้องตอบสนองความต้องการของลูกค้าหลายพันหรือหลายล้านรายที่ต้องการการทำนายจากเครือข่ายประสาทเทียมที่ผ่านการฝึกฝนในแต่ละวัน
การพัฒนาซอฟต์แวร์
ควบคู่ไปกับการประกาศเกี่ยวกับฮาร์ดแวร์ Google ยังเปิดเผยว่ากำลังทำให้ซอฟต์แวร์ Pathways พร้อมใช้งานสำหรับสาธารณะผ่าน Pathways on Cloud ซอฟต์แวร์นี้กระจายภาระงานการประมวลผล AI ไปยังคอมพิวเตอร์ต่างๆ ซึ่งอาจช่วยให้ลูกค้าบรรลุประสิทธิภาพและการใช้งานทรัพยากร AI ได้มากขึ้น
อนาคตของการประมวลผล AI
ด้วย Ironwood Google กำลังวางตำแหน่งตัวเองให้อยู่แถวหน้าของสิ่งที่มองว่าเป็นการประมวลผล AI รุ่นต่อไป - เปลี่ยนจากโมเดลที่เพียงแค่ตอบสนองโดยนำเสนอข้อมูล ไปสู่ระบบเชิงรุกที่สามารถตีความและอนุมานได้ ตามที่ Amin Vahdat รองประธานและผู้จัดการทั่วไปของ ML, Systems & Cloud AI ที่ Google กล่าวไว้ Ironwood ถูกสร้างขึ้นเพื่อขับเคลื่อนโมเดล AI ที่สามารถคิดและอนุมานได้ในระดับขนาดใหญ่ ซึ่งบ่งบอกถึงวิสัยทัศน์ของ Google สำหรับแอปพลิเคชัน AI ที่ซับซ้อนมากขึ้นซึ่งสามารถใช้เหตุผลในการแก้ปัญหาที่ซับซ้อนแทนที่จะเพียงแค่ตอบสนองต่อคำสั่ง