當(dāng)數(shù)據(jù)中心GPU動輒700瓦時(shí),一家日本芯片公司把AI推理壓到了10瓦——這相當(dāng)于手機(jī)快充的零頭。Unigen優(yōu)力勤剛發(fā)布的Amaretti模塊,正在挑戰(zhàn)"算力=功耗"的默認(rèn)公式。
正方:邊緣部署的"甜點(diǎn)區(qū)"出現(xiàn)了
![]()
60 TOPS(每秒萬億次運(yùn)算)INT8精度,足夠跑200億參數(shù)模型。這恰好踩中當(dāng)前大模型小型化的節(jié)奏:Llama 3 8B、Phi-4等輕量模型正在替代笨重的云端API。
E1.S接口是服務(wù)器級標(biāo)準(zhǔn),意味著它能直接插進(jìn)現(xiàn)有邊緣服務(wù)器,不用改架構(gòu)。32GB內(nèi)存對邊緣設(shè)備堪稱奢侈——多數(shù)競品還在8GB掙扎。
EdgeCortix的SAKURA-II芯片用了近存計(jì)算架構(gòu),把計(jì)算單元和內(nèi)存貼得更近。這是日本半導(dǎo)體在AI時(shí)代的差異化打法:不做訓(xùn)練霸權(quán),專啃推理效率。
反方:60 TOPS在2025年夠不夠用?
英偉達(dá)Jetson Orin Nano同樣是10W檔,INT8算力67 TOPS,價(jià)格已壓到199美元。Amaretti的定價(jià)尚未公布,若走工業(yè)級路線,成本可能是消費(fèi)級的3-5倍。
更大的問號是生態(tài)。PyTorch、TensorFlow支持只是入場券,真正決定邊緣AI落地的是模型優(yōu)化工具鏈——量化、剪枝、編譯器成熟度。EdgeCortix在這塊的積累,遠(yuǎn)不及英偉達(dá)的TensorRT。
20B模型本地運(yùn)行是宣傳話術(shù)。實(shí)際落地要看token生成速度、并發(fā)路數(shù)、散熱條件。10W無風(fēng)扇設(shè)計(jì)在-40°C到85°C工業(yè)溫區(qū)能穩(wěn)多久?數(shù)據(jù)手冊沒給答案。
判斷:一場關(guān)于"夠用就好"的實(shí)驗(yàn)
Amaretti的真正價(jià)值不在參數(shù)表,而在產(chǎn)品定義本身——用服務(wù)器標(biāo)準(zhǔn)接口做邊緣算力,瞄準(zhǔn)的是工廠質(zhì)檢、路側(cè)感知、醫(yī)療影像這些"不能聯(lián)網(wǎng)、不能掉線"的場景。
日本半導(dǎo)體產(chǎn)業(yè)鏈正在尋找AI時(shí)代的立足點(diǎn)。瑞薩、Socionext之后,EdgeCortix選擇了一條更窄但更少巨頭的賽道:高確定性的低功耗推理,而非高風(fēng)險(xiǎn)的訓(xùn)練芯片軍備競賽。
60 TOPS在2025年不算驚艷,但10W功耗下的60 TOPS,加上E1.S的即插即用,可能剛好卡在工業(yè)客戶"愿意試"的閾值上。邊緣AI的爆發(fā)從來不靠單點(diǎn)突破,而是無數(shù)這種"剛好夠用"的模塊堆出來的。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.