輝達 GPU เมื่อปีที่แล้วมีการส่งมอบถึง 6 ล้านชิ้น โดยเซิร์ฟเวอร์ Blackwell ชิ้นเดียวมีราคาสูงถึง 3 ล้านดอลลาร์ และส่งมอบสัปดาห์ละ 1,000 เครื่อง ครองตลาดชิป AI แต่ว่าสงครามชิปนี้กำลังเปลี่ยนทิศทาง ชิปที่ปรับแต่งเองอย่าง Google TPU, AWS Tranium, Broadcom ASIC กำลังเติบโต นักวิเคราะห์คาดว่า Broadcom จะมีส่วนแบ่งตลาดในชิป ASIC ที่ปรับแต่งเองถึง 70-80%

GPU ของ NVIDIA ย้อนไปถึงปี 2012 ที่ AlexNet นักวิจัยนำความสามารถในการประมวลผลแบบขนานของ GPU ไปใช้ในการฝึก neural network ซึ่งนำไปสู่ยุคของ deep learning การได้เปรียบหลักของชิป GPU มาจากแกนประมวลผลแบบขนานนับพันที่สามารถดำเนินการคูณเมทริกซ์และการคำนวณเทนเซอร์อื่น ๆ ได้อย่างมีประสิทธิภาพ เหมาะอย่างยิ่งสำหรับการฝึกและการอนุมาน AI
ในเครื่องเซิร์ฟเวอร์ขนาดใหญ่ 72 ชิ้น GPU สามารถรวมกันเป็นหน่วยประมวลผลเดียวเหมือน GPU ขนาดยักษ์ด้วยเทคโนโลยี NVLink NVIDIA ไม่เพียงแต่จัดหา GPU ให้กับ OpenAI รัฐบาลและองค์กรต่าง ๆ เท่านั้น แต่ยังสร้างระบบเซิร์ฟเวอร์ครบชุด คู่แข่งอย่าง AMD ก็ใช้ชิป Instinct และระบบซอฟต์แวร์โอเพ่นซอร์สเพื่อเร่งความก้าวหน้า ล่าสุดก็ได้รับการสนับสนุนจาก OpenAI และ Oracle ชิป GPU ของ AMD ส่วนใหญ่ใช้ซอฟต์แวร์โอเพ่นซอร์ส ในขณะที่ชิปของ NVIDIA จะเน้นการปรับแต่งให้เข้ากับ CUDA เป็นหลัก
ตั้งแต่ Google, Amazon, Meta, Microsoft จนถึง OpenAI ยักษ์ใหญ่ในคลาวด์ต่างลงทุนใน R&D ของชิป ASIC (Application-Specific Integrated Circuit) ชิปที่ออกแบบมาเพื่อวัตถุประสงค์เฉพาะเหล่านี้คาดว่าจะกลายเป็นกลุ่มชิป AI ที่เติบโตเร็วสุดในอีกไม่กี่ปีข้างหน้า เมื่อโมเดลภาษาใหญ่เข้าสู่ช่วง成熟 ความต้องการ inference ก็พุ่งสูงขึ้นอย่างรวดเร็ว ซึ่งมีต้นทุน การใช้พลังงาน และความเสถียรเป็นปัญหาหลักของแพลตฟอร์มคลาวด์ ซึ่งนี่คือสนามรบของชิป ASIC
แตกต่างจาก GPU ที่ใช้ได้ทั่วไป ชิป ASIC เหมือนเครื่องมือพิเศษที่ออกแบบมาเฉพาะงาน AI ทำให้ความเร็วและประหยัดพลังงานดีกว่า จุดด้อยคือความยืดหยุ่นน้อยมาก ต้องใช้เงินลงทุนสูงในการพัฒนา บางชิ้นอาจใช้เงินเป็นร้อยล้านดอลลาร์ การสร้างชิป ASIC สำหรับ AI จึงเป็นเรื่องของบริษัทยักษ์ใหญ่เท่านั้น Google เป็นผู้เล่นรายแรกที่สร้างชิป ASIC สำหรับเร่ง AI โดยสร้าง Tensor Processing Unit (TPU) ในปี 2015 ซึ่งเป็นชื่อเฉพาะ ชิป TPU ช่วยให้ Google คิดค้น Transformer architecture ในปี 2017 ซึ่งเป็นรากฐานให้กับ AI อย่าง ChatGPT, Claude ปัจจุบัน Google พัฒนา TPU รุ่นที่ 7 ชื่อว่า Ironwood และใช้ TPU กว่าล้านชิ้นในการฝึกโมเดล Claude
AWS หลังจากซื้อ Annapurna Labs ก็ทุ่มเทในการพัฒนาชิป AI ของตัวเอง Tranium และ Inferentia กลายเป็นแกนหลักของแพลตฟอร์มการฝึกและ inference ของ AWS ในปี 2024, Anthropic ใช้ Tranium 2 กว่าห้าแสนชิ้นในศูนย์ข้อมูล North Indiana เพื่อฝึกโมเดล โดยไม่มี GPU ของ NVIDIA เลย ชี้ให้เห็นว่าสถานะของ ASIC กำลังสูงขึ้น
Broadcom และ Marvell เป็นบริษัทรับจ้างผลิตชิปที่เป็นพันธมิตรกลยุทธ์หลักของบริษัทยักษ์ใหญ่อย่าง Amazon, Google, Meta ในการสร้างชิป ASIC สำหรับ AI Broadcom ช่วยสร้าง TPU ของ Google และชิป AI สำหรับ Meta คาดว่าจะมีส่วนแบ่งในตลาดชิป ASIC ที่ปรับแต่งเองถึง 70-80%
ชิป AI edge ก็เริ่มเข้าสู่อุปกรณ์ส่วนตัว NPU (Neural Processing Unit) เป็นชิปเฉพาะสำหรับรัน AI บนอุปกรณ์ ซึ่งปัจจุบันอยู่ในชิป Snapdragon ของ Qualcomm, AMD, Intel และซีรีส์ Apple M ใน SoC สำหรับสมาร์ทโฟน แล็ปท็อป บ้านอัจฉริยะ รถยนต์ และหุ่นยนต์ อุปกรณ์เหล่านี้จะช่วยให้ความเป็นส่วนตัวดีขึ้น ลดความล่าช้า และเพิ่มการควบคุม
GPU: มีความยืดหยุ่นสูงเหมาะสำหรับงานหลากหลาย แต่กินพลังงานสูงและต้นทุนแพง เครื่องเดียวอาจราคา 3 ล้านดอลลาร์
ASIC: เน้นความเร็วและประหยัดพลังงาน พัฒนาต้นทุนหลายร้อยล้านดอลลาร์ แต่คุ้มระยะยาว คิดเป็น 30-40%
FPGA/NPU: สามารถปรับแต่งได้ระหว่างสองแบบ เหมาะสำหรับอุปกรณ์ edge และช่วงทดสอบ
ไม่ว่าจะเป็นชิป Blackwell ของ NVIDIA, ชิป TPU ของ Google หรือ Tranium ของ AWS ส่วนใหญ่สุดท้ายแล้วผลิตโดย TSMC ซึ่งทำให้ supply chain ของ AI ควบคู่กับ geopolitics ทั่วโลก สหรัฐฯ พยายามดึงกำลังการผลิตชิปบางส่วนกลับสหรัฐด้วยโรงงาน TSMC ใน Arizona และเทคโนโลยีการผลิต 18A ของ Intel อย่างไรก็ตาม บริษัทยักษ์ใหญ่ของจีนอย่าง Huawei, Alibaba ก็พยายามสร้างชิป ASIC ของตัวเองเพื่อหาแหล่งผลิตทดแทนภายใต้ข้อจำกัดด้านการส่งออก