产业丨热度高过HBM,量产在即的SOCAMM2竞争势态白热化
前言:
过去三年,HBM始终是半导体行业的绝对顶流,但进入2026年,SOCAMM2正在以远超行业预期的速度升温,热度甚至盖过了处于产能爬坡期的HBM4。
SOCAMM2成为AI存储的补位者
SOCAMM2的全称是Small Outline Compression Attached Memory Module 2,即第二代小外形压缩附着内存模块,是JEDEC固态技术协会正在推进最终落地的新一代企业级内存标准。
它的核心架构,是将消费电子领域成熟的LPDDR低功耗内存技术,与CAMM压缩附加内存模块的模块化设计相结合。
通过4-N-4 HDI超高密度互连叠层结构,实现了性能、功耗、尺寸与可维护性的四重突破。
从核心参数来看,当前量产阶段的SOCAMM2已经展现出对传统DDR5内存的全面超越。
单针脚数据传输速率最高可达9600MT/s,较初代SOCAMM提升12.5%,是主流DDR5 RDIMM的1.7倍。
单模块容量最高做到256GB,单颗8通道服务器CPU可支持最高2TB的内存容量,足以支撑百万级Token长上下文大模型的推理需求。
在相同容量下,SOCAMM2的功耗仅为标准DDR5 RDIMM的三分之一,物理尺寸也缩减了三分之二。
同时去除了顶部凸出的梯形结构,整体高度降低约15%,完美适配当前AI服务器主流的液冷系统布局,解决了传统RDIMM内存带来的气流阻塞问题。
SOCAMM2的核心价值,是解决如何让AI[记住更多内容,同时消耗更少的电量]的行业核心痛点。
如果HBM是AI服务器的[血管],负责以超高速向GPU输送数据。
那么SOCAMM2就是AI服务器的[肌肉],它围绕CPU构建,处理大规模数据的同时显著降低功耗。
这种定位差异决定了SOCAMM2不会取代HBM,而是与之形成互补,共同支撑下一代AI基础设施。
而SOCAMM2的定位恰好填补了HBM与传统DDR5之间的市场空白,它用可替换、高效益的模块化设计,实现了容量、功耗与弹性的平衡。
至此,SOCAMM2的爆发是AI应用结构变化、HBM供给瓶颈、数据中心能耗压力,这三股产业力量交汇的结果。
HBM产能+价格留下的市场空间
过去两年,HBM的产能始终处于供不应求的状态,三星、SK海力士两家韩系厂商垄断了全球90%以上的HBM产能。
2026年HBM4的产能已经被英伟达、AMD等头部厂商提前全部锁定,中小厂商根本拿不到稳定的货源。
同时,HBM的价格始终居高不下,每GB价格超过10美元,是普通DDR5内存的3-4倍,这让很多对成本敏感的推理场景、边缘计算场景难以承受。
而SOCAMM2的成本优势极为显著,每比特价格仅比普通LPDDR颗粒溢价30%左右,远低于HBM的高额溢价。
同时其生产基于成熟的DRAM制程和传统封装工艺,不需要TSV硅通孔等先进封装技术,产能不受先进封装产能的限制,能够快速实现大规模上量。
如果说HBM决定了AI能力的上限,那SOCAMM2决定的就是AI能不能真正普及到千行百业。
从表面看这是一次存储技术的竞争,但其实是一次AI系统架构的权力再分配。
踩中AI产业的结构性拐点
SOCAMM2精准踩中了AI产业从[训练军备竞赛]到[推理商业化落地]的结构性拐点,解决了当前数据中心与AI厂商最迫切的核心痛点。
长上下文推理的核心瓶颈,落在了内存上。
在Transformer架构的推理过程中,KV缓存会存储每一个Token的键值对,其内存占用会随着上下文长度线性增长。
传统DDR5 RDIMM的带宽不足,会直接导致首个Token生成时间(TTFT)大幅拉长,用户体验严重下降。
这个场景是SOCAMM2的核心优势所在,能大幅提升长上下文推理的响应速度,同时支撑更多的并发用户,直接降低了大模型商业化的部署门槛。
当前,全球AI数据中心都面临着功耗、机架密度与全生命周期总拥有成本(TCO)的三重压力,而传统DDR5内存架构已经走到了瓶颈。
一台双路AI服务器,搭载16根DDR5 RDIMM时,仅内存的满载功耗就超过200W,而相同容量的SOCAMM2功耗仅为70W左右。
全机架规模部署时,仅内存一项就能降低30%以上的散热与电力成本。
AI服务器的趋势是高密度集成与液冷普及,垂直插拔的DDR5 RDIMM不仅占用空间大,还会阻挡液冷系统的风道布局。
SOCAMM2采用扁平式压缩附着设计,尺寸仅为RDIMM的三分之一,单台服务器的内存插槽数量可提升50%。
同时完美适配冷板式液冷与浸没式液冷系统,让单机架的算力密度提升30%以上。
此外,瑞银测算数据显示,SOCAMM2的应用可降低AI服务器全生命周期TCO超过20%。
市场研究机构Omdia预测,包括SOCAMM2在内的服务器模块市场将在2027年超过20亿美元,年均增长率超过60%。
另一家机构Market Research Intellect则预测,包括SOCAMM在内的低功耗DRAM市场到2033年将以年均8.1%的速度增长,市场规模达到258亿美元。
量产在即 全球玩家竞争白热化
随着JEDEC标准的即将落地,以及英伟达Vera Rubin平台的量产时间临近,SOCAMM2的市场竞争已经进入白热化阶段。
在SOCAMM2的核心赛道,美光、三星、SK海力士三大DRAM巨头已经形成了直接竞争,三者的技术路线与市场策略各有侧重,量产进度也进入了最后的冲刺阶段。
美光是SOCAMM2赛道的先发者,近期推出了全球首款256GB SOCAMM2模块,并在英伟达GTC 2026大会上宣布该产品已进入大规模量产阶段,成为英伟达Vera Rubin平台的首发主供应商。
核心优势在于1γ DRAM制程工艺带来的单晶粒32Gb LPDDR5X颗粒,能在更小的尺寸内实现更高的容量。
三星在本月宣布通过自研的下一代低温焊料(LTS)技术,攻克了模块翘曲问题。
将焊接温度从260℃以上降至150℃以下,同时优化了单塔芯片布局与EMC环氧塑封料的热膨胀特性,大幅提升了产品的机械刚性与良率。
凭借稳定的良率与1c nm制程的产能优势,有望拿下英伟达SOCAMM2约50%的供应份额,与美光形成分庭抗礼的格局。
SK海力士当前的产能优先级向HBM4倾斜,SOCAMM2的产能分配相对有限。
但凭借在DRAM领域的深厚技术积累,SK海力士已启动SOCAMM2的客户采样,同时依托1c DRAM工艺的迭代,聚焦高端市场。
与AMD、英特尔的下一代服务器平台保持深度合作,避开与美光、三星在英伟达供应链的正面厮杀,形成了自己的市场优势。
国内厂商江波龙自研的SOCAMM2产品,基于LPDDR5/5X颗粒与4-N-4 HDI超高密度互连叠层结构,进一步优化了模组高度,单模块最大容量256GB,数据传输速率达8533Mbps,性能指标已接近国际大厂的同级产品。
带动产业链上游的新机会
SOCAMM2的爆发也带动了整条产业链上游的技术升级与市场机会,从PCB基板、连接器到封装材料,各个环节都进入了密集的产能布局与技术突破阶段。
SOCAMM2的连接器引脚数量达到了644个,对高频高速信号完整性、机械精度与可靠性提出了极高的要求。
当前安费诺、泰科等国际连接器巨头占据了市场主导地位,国内的兴万联等厂商也已实现了CAMM2连接器的量产突破,进入了国内服务器厂商的供应链。
PCB基板是SOCAMM2的核心载体,其技术门槛也显著提升。
国内的生益科技、深南电路、沪电股份等厂商,已经在高频高速覆铜板与高阶HDI板领域实现突破。
用于解决翘曲问题的低温焊料、高可靠性EMC环氧塑封料等高端材料,目前仍主要由日本、美国企业主导,国内厂商在中低端材料领域已经实现了批量供货,正在向高端市场发起冲击。
SOCAMM2崛起的产业趋势
①AI基础设施的优化重心正在从算力至上转向系统能效,当大模型训练阶段的疯狂算力扩张逐步放缓,推理阶段的成本控制成为关键。
SOCAMM2的功耗优势,在电力成本持续攀升的背景下具有决定性的经济意义。
②内存与计算的边界正在模糊,SOCAMM2的模块化设计特性,以及未来可能集成的计算功能,预示着内存正在从被动存储单元向主动计算节点演进。
③供应链安全考量正在重塑竞争格局,英伟达同时扶持三星、SK海力士、美光三家供应商,并在HBM与SOCAMM2之间进行差异化分配,反映出AI芯片巨头对供应链韧性的高度重视。
结尾:
技术创新的价值不仅在于创造新的性能巅峰,更在于找到效率与成本的最优解。
SOCAMM2将从技术验证走向规模部署,表面上看,这场竞争是存储厂商之间的技术比拼,但背后隐藏的是算力巨头对下一代AI服务器架构标准的主导权争夺。
部分资料参考:韩国经济日报:《业界为Rubin带来的人工智能变革做好准备》,IT之家:《英伟达取消第一代 SOCAMM 内存推广,开发重点转向 SOCAMM2 新版本》,半导体行业观察:《这类存储,成为新HBM》,半导体产业纵横:《AI内存新秀,SOCAMM2登场》
原文标题 : 产业丨热度高过HBM,量产在即的SOCAMM2竞争势态白热化


分享














发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论