在人工智能奔向万亿参数的时代,一个沉默却致命的瓶颈正在扼住算力的咽喉:芯片跑得再快,也追不上数据搬运的速度。
传统冯·诺依曼架构将计算与存储分离,每一次AI运算都需反复“取数—计算—存数”。这一看似微小的延迟,在大模型时代被无限放大——能耗飙升、效率受限、成本高企。于是,一场底层革命悄然启动:不再搬运数据,而是让计算走进存储。
这,就是存算一体(Computing-in-Memory, CIM)AI芯片——它不是渐进式优化,而是一次对计算范式的彻底重构。
最新数据显示,2025年全球存算一体芯片市场规模仅为16.7亿元,但到2032年,这一数字将跃升至2629.8亿元,年复合增长率高达105.5%。这不是线性扩张,而是一场由技术成熟、场景爆发与国家战略共同点燃的指数级跃迁。
从实验室走向产线:商用拐点已至
曾几何时,存算一体只是高校论文中的理想模型。如今,它正加速落地为真实产品。
阿里达摩院基于SeDRAM的近存计算芯片,使大模型训练效率提升30%;知存科技的WTM2101芯片功耗低至0.8毫瓦,让智能手表续航延长150倍;后摩智能的鸿途™H30则以256TOPS算力,支撑自动驾驶毫秒级环境感知。这些不再是演示原型,而是已在产线、终端和数据中心运行的解决方案。
驱动这一转变的,是现实需求的倒逼:大模型需要更低的训练成本,边缘设备追求极致能效,数据中心渴望压降TCO。存算一体,恰逢其时。
全球竞合:规则正在重写
国际巨头早已卡位。Mythic、Syntiant等美国企业凭借RRAM模拟计算架构,在高端推理市场占据先机;三星与英特尔则依托存储制造优势,将DRAM或SRAM直接嵌入计算单元,实现“近存即算”的商业化落地。
但中国力量正以差异化路径突围。不同于正面硬刚,本土企业选择“场景破局”:
知存科技深耕可穿戴设备,市占率超四成;亿铸科技聚焦大模型推理,在28纳米工艺下实现高能效BF16计算;芯展速跳出单芯片逻辑,推出PCIe Gen 6全栈方案,让GPU与SSD直连,重构智算中心的数据流。
更关键的是,华为、寒武纪等头部玩家已将存算一体纳入AI芯片战略核心。这意味着,中国正从技术追随者,转向某些垂直领域的规则定义者。
产业链共振:一场系统级升级
存算一体的真正挑战,不在一颗芯片,而在整个生态。
上游,RRAM、MRAM等新型存储器成为胜负手。兆易创新、东芯股份加速国产替代;中芯国际14纳米RRAM良率突破85%,为量产铺平道路。
中游,EDA工具必须适配新架构。华大九天、概伦电子推出专用IP库,大幅缩短设计周期;长电科技通过3D堆叠封装,实现计算与存储的物理融合。
下游,应用反馈又反哺技术迭代。某汽车工厂引入存算一体芯片后,缺陷检测速度提升10倍;清华大学的ReDCIM芯片证明,即便在成熟制程下,也能高效支撑Transformer推理。
这已不是单点突破,而是一场从材料、设计到系统的全链条协同进化。
政策与资本:双引擎加速
国家战略从未如此清晰。“十五五”规划首次将存算一体列为集成电路自主可控的重点方向;中央提出“深化‘人工智能+’”,地方如浙江、广东则配套税收优惠与人才补贴,打造区域创新高地。
资本市场亦迅速跟进。京东开出“年薪百万+20薪”招募存算一体芯片工程师,背后是对端侧AI生态的深度押注。一级市场融资密集,估值水涨船高——技术势能正加速转化为产业动能。
冷思考:高增长下的隐忧
热潮之下,风险犹存。RRAM工艺波动可能拖累良率;模拟计算的长期可靠性仍需大规模验证;而工业、医疗等场景的高度定制化,也让通用化产品难以快速复制。
更深层的竞争,不在芯片性能,而在生态闭环。谁能率先打通“芯片—软件—应用”链条,谁就能定义下一代AI基础设施的标准。
展望2030年,全球存算一体芯片市场规模有望突破200亿美元,中国或将占据四成以上份额。届时,它或许不再被称为“新兴技术”,而是AI时代的默认配置。
结语:最聪明的算力,从不搬运数据
存算一体的意义,远不止于省电或提速。它代表一种新哲学:不要把数据送到计算那里,而是让计算去数据身边。
在这场由架构革命引发的算力跃迁中,真正的赢家,不是拥有最先进制程的厂商,而是具备系统思维、场景洞察与生态整合能力的引领者。
当AI真正学会“就地思考”,我们终将明白:最强大的算力,从来不是最快的,而是最聪明的。





























