Google Cloud ได้ประกาศการอัปเกรดครั้งสำคัญให้กับแพลตฟอร์มแบบ serverless ของตน Cloud Run โดยเพิ่มการรองรับ GPU NVIDIA L4 คุณสมบัติใหม่นี้ซึ่งอยู่ในช่วงพรีวิว ช่วยให้นักพัฒนาสามารถรันแอปพลิเคชันประมวลผล AI ได้โดยตรงบนโครงสร้างพื้นฐานคลาวด์ที่ปรับขนาดได้ของ Google
การผสานรวม GPU NVIDIA L4 เข้ากับ Cloud Run เปิดโอกาสใหม่ๆ สำหรับนักพัฒนา AI และธุรกิจที่ต้องการใช้งานโมเดลการเรียนรู้ของเครื่องอย่างมีประสิทธิภาพ ต่อไปนี้คือจุดเด่นสำคัญของการอัปเดตครั้งนี้:
-
เพิ่มขีดความสามารถด้าน AI: นักพัฒนาสามารถทำการประมวลผลแบบเรียลไทม์โดยใช้โมเดลแบบเปิดที่มีขนาดเบา เช่น Gemma (2B/7B) ของ Google และ Llama 3 (8B) ของ Meta สำหรับแอปพลิเคชันต่างๆ เช่น แชทบอทและการสรุปเอกสาร
-
ประสิทธิภาพที่ดีขึ้น: ด้วย vRAM ขนาด 24GB GPU L4 สามารถรองรับโมเดลที่มีพารามิเตอร์สูงถึง 9 พันล้านตัว ให้อัตราการสร้างโทเค็นที่รวดเร็วสำหรับโมเดลยอดนิยม เช่น Llama 3.1 (8B), Mistral (7B) และ Gemma 2 (9B)
-
การประหยัดต้นทุน: ความสามารถของ Cloud Run ในการปรับขนาดลงเป็นศูนย์เมื่อไม่ได้ใช้งาน ช่วยให้สามารถประหยัดต้นทุนสำหรับการประมวลผล AI ได้
-
การติดตั้งที่ง่ายขึ้น: ลักษณะแบบ serverless ของ Cloud Run ช่วยขจัดความจำเป็นในการจัดการโครงสร้างพื้นฐาน ทำให้นักพัฒนาสามารถมุ่งเน้นไปที่แอปพลิเคชัน AI ของตนได้มากขึ้น
-
ความหลากหลาย: นอกเหนือจากการประมวลผล AI แล้ว การรองรับ GPU ยังขยายไปถึงงานที่ต้องใช้การประมวลผลสูงอื่นๆ เช่น การจดจำภาพ การแปลงวิดีโอ และการเรนเดอร์ 3D
ในช่วงแรก การรองรับ GPU บน Cloud Run จะมีให้บริการในภูมิภาค us-central1 (Iowa) โดยมีแผนที่จะขยายไปยังยุโรปและเอเชียภายในสิ้นปีนี้ นักพัฒนาสามารถเชื่อมต่อ GPU NVIDIA L4 หนึ่งตัวต่อหนึ่งอินสแตนซ์ของ Cloud Run โดยไม่จำเป็นต้องจองล่วงหน้า
การอัปเดตครั้งนี้ถือเป็นก้าวสำคัญในการทำให้การประมวลผล AI เข้าถึงได้ง่ายขึ้นและมีประสิทธิภาพด้านต้นทุนมากขึ้นสำหรับธุรกิจทุกขนาด ด้วยการผสมผสานความเรียบง่ายของสถาปัตยกรรมแบบ serverless เข้ากับพลังของ GPU NVIDIA, Google Cloud กำลังวางตำแหน่งตัวเองให้เป็นคู่แข่งที่แข็งแกร่งในตลาดโครงสร้างพื้นฐาน AI ที่กำลังพัฒนาอย่างรวดเร็ว
นักพัฒนาที่สนใจทดลองใช้ Cloud Run กับ GPU NVIDIA สามารถลงทะเบียนเข้าร่วมโปรแกรมพรีวิวได้ที่ g.co/cloudrun/gpu