现在距离今年 WWDC 还有两三个月。届时苹果大概率会发新一代 Mac Studio。它和常见的台式机或笔记本,最大的差别在哪?——CPU、内存和 GPU 在物理意义上集成在同一颗芯片封装里,这就是所谓“统一内存架构”。
所以,买苹果电脑常听到一句话——“在力所能及范围内尽量买大内存”——背后真正的原因不是怕将来不够用,而是事后根本加不了。
Apple Silicon 在 AI 时代被重新发现,靠的不是 CPU 算力,而是一个普通用户根本没听过的指标——内存带宽,也就是内存的读写速度。
现售 Mac Studio 顶配(M2 Ultra)大约是 800 GB/s,每秒钟搬运 800 个 G 的数据,接近一块 1 T 硬盘的整盘吞吐量。这个数字不是一个统一常数:Mac mini 在 120 到 273 GB/s 之间,Mac Studio 不同芯片型号在 410 到 819 GB/s 不等。但与传统插内存条的方案相比,整个 Apple Silicon 阵营都站在另一个量级上,大约快 5 到 10 倍。日常上网、写文档、刷微信,这点差距完全感受不到;一旦放进大模型推理这个场景,立刻就是硬瓶颈。
开源大模型后面常跟一个数字——31B、70B、197B。一个 B 是十亿参数。按全量高精度模型粗估,参数量乘以 2 大约就是它的内存占用:31B 大约 60 多 G,70B 大约 140 G。而一个模型每秒钟能输出多少 token,有一个非常简单的算法——把整个模型完整读取一遍所花的时间。决定这个时间的是带宽,不是容量。
举个例子。一台 256 G 内存的 Mac Studio,理论上能装下一个 70B 的全量模型(140 G),“用得起来”。能用得多快?800 ÷ 140 ≈ 5 到 6 token/s,屏幕上每秒钟跳出 5、6 个字。人类的舒适阅读速度大概在每秒 15 到 20 字之间,这种体感是吃力的。但这只是全量精度的算法。如果换成 4 bit 量化版的 70B,内存占用降到 35 G 左右,800 ÷ 35 ≈ 22 token/s,已经超过人的舒适阅读速度。换句话说,当前顶配 Mac Studio 在量化版 70B 上是跑得动的——但这只是甜点位的下限,再往上走 100B、200B 全量,带宽这个瓶颈立刻又立起来。
把这笔账算清楚,一个判断就立得住:
在消费端本地分布式部署开源大模型这个具体场景里,决定能不能跑、跑多快的,不是内存容量,也不是 CPU 主频——是内存带宽。
瓶颈当然不止这一个——量化压缩、软件栈、芯片架构、功耗、成本、模型本身的质量,都在一起卡——但在“消费端本地推理”这个收窄的语境里,内存带宽是其中位置最靠前的那一道闸。
要在这个场景里站住,目前只有三条路:
- 云端拼算力
- NVIDIA HBM 显卡
- Apple Silicon 一体化高带宽
NVIDIA 当然最猛——H100 的内存带宽是 3 TB/s,是 Mac Studio 顶配的近 4 倍。但 H100 一张卡 30 万人民币起步,Mac Studio 顶配大约 7 万。单位带宽成本,Apple 是 NVIDIA 的 1/15。
Apple 的护城河不是“全市场最高带宽”,而是“消费级 + 极致性价比”。在个人、小团队、小工作室这个尺度上,这个差距决定了一切。
具体到 A 股,跟这条逻辑链条距离较近、值得放进观察列表的有两个标的。
- 长电科技(600584) 做的是先进封装,它的封装路线和苹果的 UltraFusion 不是同一个东西,但属于同一个赛道里的国产对应物——有点像安卓和 iOS 的关系。
- 深南电路(002916) 做的不是封装堆叠,是高速 PCB 与封装基板这一层,把芯片之间的物理连接落地成商品。
这两个标的不是“直接解决卡脖子”——更准的讲法是,在 chiplet 加高带宽封装这条受益链条上,它们是位置较近、产业映射较清晰的两个 A 股观察对象。即便开源模型本地化没按预期铺开,它们在 HPC、车规、5 G 通信这些方向也有需求兜底。
WWDC 距离现在还有两三个月,建仓时间够。今年苹果的硬件迭代——不一定锁死 WWDC,也可能在春季的 special event 或秋季档期——大概率会把内存带宽从 800 GB/s 提升到 1 TB/s。提升是有的,但从 800 到 1000 是渐进,不是根本解决。
等到媒体把“内存带宽”这个词从硬件圈拎出来摆到桌面上,资金就会去找映射标的。这个过程不一定按教科书时间表走,但 5 到 7 月这个窗口本身够宽,不依赖某一场具体的发布会。如果未来几周这两个票真的出现合适的买点,是值得放进观察列表的。
大概说这么多。
(本文为 2026 年 4 月 9 日集团内部研讨会发言,全部为公开信息整理。本文仅用于内部研讨,不形成投资建议。)
原创文章,转载请注明: 转载自风云居 | Less is more
本文链接地址: https://kangjian.net/blog/2531/