6月14日,AMD發布了新一代用于訓練大型模型的Instinct MI300 GPU,直指英偉達的H100 AI芯片。
然而,AMD的股價卻在發布會開始后出現下滑,形成了與其CEO蘇姿豐對新產品優于英偉達GPU的強烈宣稱的反差,令人費解。而英偉達昨夜漲超4%。
首先,AMD CEO蘇姿豐發布了InInstinct MI300A,號稱全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速卡。MI300A擁有13個小芯片,在13個小芯片中遍布了1460億個晶體管。采用了CDNA 3GPU架構和24個Zen 4 CPU內核,配置了128GB的HBM3內存。
(資料圖)
相比于前一代MI250,新一代MI300的性能提高了八倍,而效率提高了五倍。新的Zen 4c內核比標準的Zen 4內核密度更高,比標準Zen 4的內核小35%,同時保持100%的軟件兼容性。
隨后AMD又公布了為大語言模型專門優化的版本MI300X,內存為192GB,內存帶寬為5.2TB/s,Infinity Fabric帶寬為896GB/s,共有1530億個晶體管。
值得注意的是,蘇姿豐表示,MI300提供的高帶寬內存密度是英偉達H100的2.4倍,HBM帶寬是競品的1.6倍。隨著大模型的迭代,實際上需要多個GPU來運行,隨著AMD芯片上內存的增加,開發人員將不需要那么多GPU,可以節省成本。
蘇姿豐并表示,MI300X有數量驚人的技術,這是AMD制造過最復雜的芯片,目的是讓人工智能更容易訪問。每個想使用人工智能的人都需要更多的GPU,而我們有一款功能強大、非常高效的GPU,相信新品MI300X將成為人工智能市場的重要贏家。
AMD稱,在今年生成式AI和大語言模型的催化下,對電腦的算力和內存需求大幅提高。預計今年,數據中心AI加速器的市場規模將達到300億美元左右,而2027年市場規模將超過1500億美元,復合增長率超過50%。
AMD CEO蘇姿豐說,內存越大,能處理的模型就越多。AMD在客戶的工作負載中看到,它的運行速度要快得多,我們認為它確實存在差異化。這款芯片將在今年Q3正式少量生產,在Q4開始量產。
然而,為什么AMD拿出超過英偉達H100芯片的性能猛獸,股價反倒下跌呢?
在以往AMD每次的新品發布會中,AMD都會披露新產品的大客戶。然而,這次AMD雖把新AI芯片性能說的超越英偉達的H100,但并沒有披露MI300系芯片的成本或者銷售方案,考慮到極多的HBM,極大的Die面積,以及COWOS的吃緊的產能,這使得市場對AMD有所顧慮。
美國銀行表示,AMD仍然遠遠落后于英偉達,因為AMD下季度才能開始提供AI芯片樣本,時間方面,當AMD開始通過基于5納米的GPU加速器企穩時,英偉達可能會推出下一代基于3納米、LLM大模型優化的Blackwell架構GPU,英偉達將進一步擴大在人工智能市場上已經相當大的領先優勢。
另外,分析師希望AMD能夠透露更多的信息表明自己在某些設計上取代了英偉達。然而,AMD在發布會上并未提及。
除了硬件芯片,英偉達一直在為AI研究人員提供軟件工具,并預測AI企業對芯片的需求,這需要花費數年的時間。
昨晚,AMD也披露了其Rocm軟件的最新消息,同樣對標于英偉達的Cuda軟件平臺。
Meta的AI軟件高管表示,正在與AMD進行密切合作,便于AI開發者使用免費工具擺脫AI芯片的單一主導廠商,轉向AMD等公司提供的其他方案。
結語
實際上,Meta高管的說法也適用于硬件端。訓練大模型的科技企業應該都不想看到英偉達太過一家獨大的情況出現。在只有一家英偉達能提供強大的AI芯片時,無疑會出現供大于求的情況,而這會使得訓練大模型的企業成本提高。
在當下,人們談到AI就會將其與英偉達掛鉤,而AMD能否真的追趕上英偉達呢?
責任編輯:Rex_14