AI芯片賽道迎來重磅突破,美國Groq公司正式發(fā)布全新AI芯片LPU,宣稱其推理速度較英偉達(dá)GPU提升10倍,而成本僅為后者的十分之一,憑借極致的性價比成為“地表最強(qiáng)推理芯片”,與此同時,字節(jié)跳動同步發(fā)布萬卡集群系統(tǒng)論文,進(jìn)一步加劇全球AI芯片賽道的競爭內(nèi)卷,推動AI算力技術(shù)加速迭代。
![]()
AI生成
Groq此次發(fā)布的LPU芯片,核心優(yōu)勢在于極致的推理性能與成本控制,其采用成熟的14nm制程工藝,無需依賴先進(jìn)制程即可實現(xiàn)高性能表現(xiàn),大幅降低芯片研發(fā)與制造成本。芯片搭載230MB的SRAM內(nèi)存,片上內(nèi)存帶寬達(dá)到80TB/s,遠(yuǎn)超當(dāng)前主流AI芯片,能夠高效支撐大模型推理過程中的數(shù)據(jù)傳輸需求,避免因內(nèi)存帶寬不足導(dǎo)致的算力浪費(fèi)。
算力參數(shù)方面,Groq LPU芯片的整型(8位)運(yùn)算速度達(dá)到750TOPs,浮點(16位)運(yùn)算速度為188TFLOPs,在大模型推理場景中表現(xiàn)突出。據(jù)Groq官方測試數(shù)據(jù)顯示,該芯片運(yùn)行主流大模型時,推理延遲大幅降低,其中運(yùn)行GPT-4推理速度較英偉達(dá)H100 GPU提升10倍,運(yùn)行GLM-5、Gemini 3 Pro等大模型時,推理效率同樣實現(xiàn)數(shù)倍提升,而芯片單臺成本僅為英偉達(dá)H100 GPU的十分之一,性價比優(yōu)勢顯著。
據(jù)悉,Groq成立于2016年,由前谷歌員工Jonathan Ross創(chuàng)立,其核心團(tuán)隊成員均來自谷歌、英偉達(dá)等頂尖科技企業(yè),創(chuàng)始人Jonathan Ross曾發(fā)明驅(qū)動谷歌機(jī)器學(xué)習(xí)軟件的張量處理單元(TPU),為AlphaGo提供了核心技術(shù)支撐。此次LPU芯片的發(fā)布,是Groq首次向英偉達(dá)發(fā)起正面挑戰(zhàn),憑借獨特的架構(gòu)設(shè)計與成本優(yōu)勢,有望在AI推理芯片市場占據(jù)一席之地。
同日,字節(jié)跳動同步發(fā)布萬卡集群系統(tǒng)MegaScale論文,展示了其在AI算力基礎(chǔ)設(shè)施領(lǐng)域的重大突破。該系統(tǒng)專為訓(xùn)練超過1萬個GPU規(guī)模的大型語言模型設(shè)計,在12288個GPU上訓(xùn)練175B參數(shù)LLM模型時,實現(xiàn)了55.2%的模型FLOP利用率(MFU),與主流的Megatron-LM系統(tǒng)相比,MFU提高了1.34倍,大幅提升大模型訓(xùn)練效率,降低訓(xùn)練成本,為字節(jié)跳動自研大模型及AI應(yīng)用提供強(qiáng)大算力支撐。
業(yè)內(nèi)分析指出,Groq LPU芯片的發(fā)布與字節(jié)跳動萬卡集群的曝光,標(biāo)志著AI芯片賽道競爭進(jìn)入白熱化階段。當(dāng)前,英偉達(dá)憑借H100、H200等GPU芯片占據(jù)全球AI算力市場主導(dǎo)地位,市值已突破2.2萬億美元,但Groq、三星等企業(yè)的持續(xù)發(fā)力正在打破這一壟斷格局——三星近期已在硅谷成立新團(tuán)隊,由谷歌前開發(fā)人員帶隊,專注于通用人工智能芯片研發(fā)。專家表示,AI芯片賽道的內(nèi)卷將推動算力成本持續(xù)下降、性能不斷提升,為AI大模型、AI智能體等應(yīng)用的規(guī)模化落地提供支撐。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.