加载失败
这篇讨论围绕 Reuters 对 RAM/DRAM 短缺可能持续数年的报道展开,背景是 AI 数据中心对 HBM(High Bandwidth Memory,高带宽内存)和 DRAM 的需求暴增。三星、SK Hynix、Micron 这三家主力厂商的产能有限,而新建 fab(半导体晶圆厂)通常要花数十亿美元、耗时数年,所以供给很难快速跟上。评论区把 OpenAI 的超大采购承诺、GPU/LLM 推理中的 KV cache 内存消耗、以及中国 memory 厂商的追赶和欧洲电网/数据中心限制一起拿来讨论。争论焦点不是“有没有短缺”,而是短缺会持续多久、AI bubble 会不会破裂,以及最终谁会被迫为过度投资买单。
不少评论认为,这轮短缺的直接推手是 AI 数据中心对 HBM 和 DRAM 的疯狂扫货,尤其是把未来产能提前锁定给少数大客户。围绕 OpenAI 的大额采购承诺,很多人质疑其资本金、burn rate 和收入能否支撑这么长周期的订单,一旦订单缩水,扩产的内存厂商就可能被迫自己吞下投资风险。也有人反驳说,需求不会只绑定在一个客户上,推理、长 context window 和更多 AI 业务会继续吃掉新增产能。整体上,这一派更关心的不是“有没有需求”,而是“谁会在 bubble 破裂时接盘”。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9]
很多人讨论 HBM 不是普通消费级 RAM 的简单替代品,而是通过更宽 data bus、TSV 和堆叠封装换来的带宽优势。评论里举了 Radeon VII、Vega 等曾经使用 HBM 的消费级 GPU,说明这项技术并非只能给“神级”产品用,只是成本和封装复杂度让它更偏向高端 GPU 和 AI 加速器。也有人强调 HBM 的主要价值在带宽而不是容量,甚至有人指出在 AI 数据中心里,LPDDR 之类的内存也仍然有需求。争论的核心是:HBM 不是不能下放,而是行业把最稀缺的产能优先给了最赚钱的场景。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12]
大量评论把 DRAM 行业描述成典型的 boom-bust 业务:需求上来就扩 fab,几年后价格下跌、利润坍塌,最后只剩少数玩家。大家反复提到“pork cycle”“feast/famine”这类说法,认为厂商不敢盲目加产,是因为过去已经被 overbuild 和价格崩盘狠狠教训过。还有人指出,一座现代 fab 需要几十亿美元和 3-5 年才能建成,所以宁可暂时供不应求,也不愿在需求回落后背上巨额债务。由此又延伸到 cartel、collusion、反垄断和“这到底是不是市场经济”的争论。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14]
一部分人乐观地认为,RAM 变贵会逼开发者收手,少写 Electron 这种内存大户,转而做更省资源的软件。另一部分人则指出,真正吞内存的往往是 AI inference,尤其是每个用户都要占用的 KV cache,而不是普通应用本身。TurboQuant、模型架构改进和 local model 确实能压缩内存占用,但评论普遍认为这些收益会被更大的 context、更多推理步骤和更多用户需求迅速吃掉。于是讨论最终落到 Jevons paradox:效率越高,总消费反而可能越大。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14] [来源15]
还有一条线索把问题放到地缘和基础设施上看:即使有钱,电网、审批和 datacenter 连接能力也可能卡住扩产。荷兰案例里,电网容量不足导致新 datacenter 要到 2030 才能接入,而 Amsterdam 虽然是重要互联网枢纽,也不代表 AI 数据中心能顺利落地。关于 China 的 memory 厂商,评论认为 CXMT、YMTC 等仍落后 Samsung、SK Hynix、Micron 数年,良率和先进 DRAM node 都还不足以马上填坑。再往外看,TSMC、Taiwan 和芯片供应链的地缘风险也被当成可能让短缺持续更久的变量。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14]
HBM(High Bandwidth Memory,高带宽内存): 通过堆叠封装和更宽 data bus 获得极高带宽的内存,常用于 GPU 和 AI 加速器。
DRAM: 动态随机存取存储器,当前 PC、服务器和数据中心最核心的通用易失性内存。
KV cache: LLM 推理时保存 attention 的 key/value 状态的缓存,通常是 AI 推理阶段最大的内存消耗之一。
Jevons paradox: 效率提升后,单位成本下降,结果往往带来更高的总消费而不是更低。
pork cycle: 猪周期式的供需循环:扩产、过剩、价格崩盘、减产,再回到短缺。