安謀科技Arm China發(fā)布全新“周易” X3 NPU:算力高達80 FP8 TFLOPS
11月18日消息,作為國內(nèi)領先的芯片IP設計與服務提供商,安謀科技近日上海舉辦新品發(fā)布會,正式推出了新一代“周易”X3 NPU。
這也是安謀科技打造Arm China“All in AI”產(chǎn)品戰(zhàn)略之后,發(fā)布的第一款重磅產(chǎn)品,面向基礎設施、智能汽車、移動終端、智能物聯(lián)網(wǎng)四大領域。
它可為AI加速卡、智能座艙、ADAS高級輔助駕駛、具身智能機器人、AI PC筆記本、AI手機、智能網(wǎng)關、智能IPC網(wǎng)絡攝像機等提供高效的端側AI計算能力。
安謀科技旗下?lián)碛幸幌盗凶匝挟a(chǎn)品,除了“周易”NPU,還有“星辰”CPU、“山海”SPU、“玲瓏”多媒體系列,全面覆蓋核心領域,可匹配多場景AI計算需求。
“周易”NPU團隊成立于2018年,是國內(nèi)最早的NPU研發(fā)團隊之一,可提供涵蓋硬件、軟件、工具的全棧式端到端方案,而且研發(fā)支持100%來自中國本土團隊。
“周易”X3 NPU基于專為大模型而生的最新DSP+DSA通用架構,兼顧CNN與Transformer,有效解決端側AI大模型運行難題。
它單個Cluster叢簇可配備最多4個核心,F(xiàn)P8算力8~80 TFlops(萬億次浮點計算),而且可靈活配置,單個核心的帶寬高達256GB/s。
在架構層面,“周易”X3實現(xiàn)了多項創(chuàng)新,包括:
- 集成自研解壓硬件WDC:
大模型Weight軟件無損壓縮后,通過硬件解壓能獲得額外15-20%的等效帶寬提升。
- 新增端側W4A8/W4A16計算加速模式:
均為大模型運行必備。同構對模型權重進行低比特量化,大幅降低帶寬消耗,支持云端大模型向端側的高效遷移。
- 集成AI專屬硬件引擎AIFF(AI Fixed-Function)與專用硬化調(diào)度器:
可實現(xiàn)超低至0.5%的CPU負載與低調(diào)度延遲,靈活支持端側多任務場景和任意優(yōu)先級調(diào)度場景,確保高優(yōu)先級任務的即時響應。
- 支持INT4/8/16/32、FP4/8/16/32、BF16多精度融合計算和強浮點計算:
可靈活適配智能手機邊緣部署、AI PC推理、智能汽車等從傳統(tǒng)CNN到前沿大模型的數(shù)據(jù)類型需求,平衡性能與能效。





