2023年初以來,由ChatGPT引發的AI大模型熱潮,催生了龐大的AI算力需求,也帶火了英偉達的AI芯片,特别是H100芯片不僅價格水漲船高,而且“一芯難求”。然而,9月20日,網傳微軟砍單英偉達H100芯片的消息。這一傳言的真實性以及微軟和英偉達之間的合作(zuò)情況,引發了市場的廣泛關注和猜測。
據了解,H100是目前訓練大語言模型最需要的圖形處理(lǐ)器(GPU),因為(wèi)它對于大模型的推理(lǐ)和訓練都是速度最快的,通常也是推理(lǐ)方面性價比最高的。它可(kě)以應用(yòng)于各種AI場景,如AI聊天機器人、推薦引擎、視覺AI、數據分(fēn)析、高性能(néng)計算等。H100芯片還可(kě)以搭配英偉達AI Enterprise軟件套件,為(wèi)企業提供端到端的AI就緒型基礎架構。
作(zuò)為(wèi)一款功能(néng)強大的AI芯片,英偉達H100也是微軟Azure雲計算服務(wù)中(zhōng)的核心組件之一。2021年,微軟與英偉達達成了合作(zuò)協議,采用(yòng)了數萬顆英偉達H100芯片來支持其AI和雲計算服務(wù)。這項合作(zuò)計劃在當時被視為(wèi)一個重大的商(shāng)業勝利,也為(wèi)微軟提供了更多(duō)的競争優勢。
然而,最近有(yǒu)傳言稱,從2022年底開始熱銷的英偉達H100市場開始飽和,導緻客戶下單狀況不如以前瘋狂。特别是随着ChatGPT的熱潮逐漸退去,微軟開始下調英偉達H100芯片的訂單,并放緩了拉貨速度。市場消息人士還指出,除了ChatGPT熱潮消退外,AI協作(zuò)工(gōng)具(jù)Microsoft 365 Copilot的需求也不如之前強烈,也是微軟下調芯片訂單的一個原因。
此前,在《金融時報》的一篇文(wén)章中(zhōng),Nvidia報告稱,預計2023年将在全球範圍内出貨 55萬個最新(xīn)的H100 GPU。對 GPU 的需求顯然來自生成式 AI 熱潮,但 HPC 市場也在争奪這些加速器。甚至沙特、阿聯酋也分(fēn)别購(gòu)買了數千個英偉達AI芯片,以推動其國(guó)内的生成式AI的發展。
據投行瑞傑金融估計,每枚英偉達H100芯片的制造成本為(wèi)3320美元,而給客戶的售價卻高達25000至30000美元。而知名(míng)科(kē)技(jì )媒體(tǐ)Tom‘s Hardware也稱,英偉達H100芯片的成本利潤率高達1000%,即十倍。因此,回顧過去數月英偉達AI芯片強勁的市場表現,也不得不令人有(yǒu)些意外。
目前,盡管這一傳言引發了市場的熱議,但微軟和英偉達尚未就此事發表正式聲明或回應。同時,中(zhōng)國(guó)台灣廠AI供應鏈也表示,英偉達AI芯片仍然供不應求,微軟仍然維持2024年需求量翻倍的展望。同時,微軟還上調了GH200芯片的訂單量,表明AI服務(wù)器長(cháng)期增長(cháng)動能(néng)不變。
據英偉達介紹,GH200 Grace Hopper超級芯片是專為(wèi)計算和内存密集型工(gōng)作(zuò)負載而設計,它在最苛刻的前沿工(gōng)作(zuò)負載上提供了更高的性能(néng),如基于Transformer的大型語言模型(具(jù)有(yǒu)數千億或數萬億參數)、具(jù)有(yǒu)數萬億字節嵌入表的推薦系統和矢量數據庫。
GH200 Grace Hopper 超級芯片的邏輯概述 來源:英偉達
在MLPerf行業基準測試上,與H100 GPU相比,英偉達GH200 Grace Hopper超級芯片具(jù)有(yǒu)更高的内存帶寬和更大的内存容量,性能(néng)高出17%。
由此可(kě)見,在當前大模型等 AI 應用(yòng)呈井噴式增長(cháng)的背景下,智能(néng)算力的需求将依舊旺盛。