谷歌一篇文章吓坏市场,三星电子、SK海力士、美光等巨头市值一天蒸发6200亿元,分析师:看来很多人对技术一窍不通
记者|郑雨航
从“算力时代”进入“推理时代”,AI对内存的需求激增,大幅提振了全球存储公司业绩和股价。
但谷歌的一篇文章,让美国和韩国的内存巨头市值一天蒸发了超900亿美元(约合人民币6200亿元)。
当地时间3月24日,谷歌研究院(Google Research)发布了一篇介绍名为TurboQuant的向量量化压缩算法的文章,宣称在不损失准确率前提下,将大模型运行时的关键内存占用压缩至3比特(原有内存占用的1/6)。
有市场观点认为,这一算法将减少AI对内存的需求。
但也有分析师称,市场的反应说明,很多人对技术“一窍不通”。
谷歌发布新算法
存储巨头市值蒸发逾6200亿元
当地时间3月24日,谷歌发布名为TurboQuant的内存压缩算法。谷歌方面表示,TurboQuant可以在不损失准确性的情况下,将大型语言模型运行时的关键部分——键值缓存(KV Cache)的内存占用减少为原有的1/6,同时在英伟达H100GPU上的特定测试中,性能可提升高达8倍。
这一消息迅速触发市场重估逻辑。
富国银行分析师Andrew Rocha认为,这项技术可能影响未来对内存容量规格的需求判断。他在报告中写道:“市场很快就会重新评估,AI究竟还需要多少内存容量。”
当地时间3月25日,即消息发布后的第一个美股交易日,存储芯片板块在盘中集体跳水。闪迪(SanDisk)股价一度大跌6.5%,收盘时跌幅收窄至3.5%,市值损失36.3亿美元。同日,美光科技(Micron Technology)下跌3.4%,市值损失151.66亿美元;西部数据(Western Digital)下跌1.63%,市值损失16.64亿美元;希捷科技(Seagate Technology)下跌2.76%,市值损失21.4亿美元。3月26日开盘,存储芯片板块继续集体下跌。
负面情绪迅速扩散至亚洲市场。3月26日,韩国SK海力士股价下跌6.23%,市值损失44.18万亿韩元(约合293.8亿美元);三星电子也下跌了4.71%,市值损失57.83万亿韩元(约合384.5亿美元)。
全球主要内存巨头市值损失合计超900亿美元(约合人民币6200亿元)。
直击大模型“成本痛点”:
KV缓存占用减少83%
TurboQuant引发震动的核心,在于其精准击中了大模型的关键成本痛点——KV缓存(Key-Value Cache)。
在大模型推理过程中,模型需要保存历史上下文信息形成KV缓存,以避免重复计算。但随着上下文窗口增长,KV缓存呈线性膨胀,占用大量GPU内存。
例如,一个700亿参数模型在512用户、2048 Token输入场景下,仅KV缓存就需约512GB内存,约为模型本体的4倍,已成为商业化部署中的最大成本之一。
传统解决方案是“量化”,即用低精度数据替代高精度浮点数,但往往牺牲准确率,且还需额外存储量化参数,抵消部分压缩收益。
TurboQuant通过两步优化解决这一问题。
第一步,利用名为PolarQuant的方法,将数据从笛卡尔坐标转换为极坐标,类似于“向东走3米,向北走4米”的指令,简化为“以37度角走5米”。通过随机旋转让数据分布可预测,从而无需额外量化参数,直接减少内存开销。
第二步,再利用名为QJL(量化约翰逊-林登施特劳斯变换)的技术,用仅仅1个比特来修正第一步压缩后产生的微小误差,确保最终结果的准确性。
谷歌表示,通过该组合方案:
◆KV缓存可压缩至3比特,内存占用减少为原有的1/6(降幅约83%);
◆在Gemma、Mistral等模型测试中,性能与未压缩模型一致,无需额外训练或微调;
◆在NVIDIA H100测试中,4比特TurboQuant注意力计算速度达到32位未量化的8倍。
华尔街激辩:
节省缓存等于减少内存总需求吗?
尽管市场短期剧烈反应,但机构观点明显分化。
首先,这项技术并非首次披露,相关论文早在2025年4月已公开。
其次,有分析指出,谷歌所谓的“8倍性能提升”是与32位未量化模型对比得出,而当前主流已普遍采用4位量化,实际提升或低于宣传值。
市场分析机构Citrini Research分析师Jukan直言,因TurboQuant导致内存股暴跌,反映出市场对技术“一窍不通”,就像丰田推出混动发动机却让石油公司暴跌一样。
摩根士丹利则指出,TurboQuant技术的影响范围是有限的。它仅作用于推理阶段KV缓存,不影响模型权重,也不涉及训练环节。因此,这并不意味着整体存储需求下降到原来的1/6,而是提升单位硬件效率,让相同的硬件能处理更长的上下文或服务更多用户。
此外,摩根士丹利援引“杰文斯悖论”(Jevons Paradox),该理论认为,效率提升往往不会减少资源消耗,反而会因成本下降而刺激需求增长。就像瓦特改良蒸汽机提高了煤炭燃烧效率,结果却是全球煤炭需求量的飙升一样。摩根士丹利认为,通过大幅降低单次查询的服务成本,TurboQuant能够让原本只能在云端昂贵集群上运行的模型迁移至本地,有效降低AI规模化部署的门槛,这可能反而能进一步提振整体需求。
Cloudflare首席执行官Matthew Prince将TurboQuant称为谷歌的“DeepSeek时刻”。类似情况曾在DeepSeek发布时出现:市场一度担忧算力需求下降,但最终AI应用爆发,反而推高硬件需求。一开始下跌的英伟达后来再创历史新高。
从行业规律“内存帕金森定律”来看,TurboQuant节省的内存不会闲置,而会被迅速消耗:每一轮硬件升级或软件优化释放出来的存储余量,很快就会被更长的上下文窗口、更大的批处理规模、更复杂的推理需求所吞噬。换言之,节省下来的空间将被用于服务更多并发请求、处理更长的文档,或者运行原本因内存不足而无法加载的大模型,甚至可能推动更强大的AI应用在手机等移动设备上成为现实。