英伟达需要新故事

2025-03-24 14:32:26

图片

图片


图片















黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了,这是真的吗?


文|《财经》研究员 吴俊宇
编辑|谢丽容

“过去一年,全世界大多数人对Scaling Law(规模定律)的理解都错了。”

3月19日,英伟达创始人黄仁勋在GTC(Nvidia GPU Technology Conference)2025大会提到,Scaling Law正变得更有韧性,算力消耗实际在加速。目前AI推理算力需求量可能是2024年的100倍。

Scaling Law即规模化法则,指大模型性能由算力、模型、数据规模决定。它在2020年被AI创业公司OpenAI前联合创始人伊利亚·苏茨克维尔(Ilya·Sutskever)提出。这是过去三年大模型训练的奠基理论。2022年之后,中美科技公司大模型的发展都基于这一理论:买更多的算力芯片,是提升模型性能的最直接手段。

Scaling Law是英伟达2022年之后高增长的叙事基础。但过去一年,Scaling Law放缓动摇了这一基础——堆算力看起来变得不经济,这让市场质疑,是否还有必要购买更多英伟达的芯片?

今年1月,质疑达到顶峰。因为中国大模型创业公司DeepSeek发布论文称,“用2048张英伟达H800芯片和558万美元训练成本”训练出DeepSeek-V3,这款模型和OpenAI旗下主力模型GPT-4o性能接近。DeepSeek优化了算法结构,而不是堆砌芯片数量。投资者担忧,英伟达芯片销量会受影响。

1月27日,英伟达股价一度单日下跌17%,市值蒸发近6000亿美元(报道详见《英伟达大跌,AI算力“暴力美学”模式被挑战?》。随后一个月,英伟达股价逐渐反弹。

不过,投资者对英伟达的信心并不坚定。英伟达2月26日公布2025财年(英伟达2025财年是2024年1月末至2024年1月末)财报,当年营收1304.9亿美元,同比增长114.2%;净利润728.8亿美元,同比增长148.5%。这是一份亮眼的业绩报告。但财报公布后,英伟达股价仍在下跌。2025年1月至今(截至3月20日),英伟达股价下跌约14.3%。
让投资者重拾信心,英伟达需要用新故事说服客户。

英特尔曾用摩尔定律(半导体芯片晶体管密度每18个月翻一番,性能也随之倍增)说服客户定期采购芯片。摩尔定律因此也被称为“钟摆定律”。

黄仁勋重新解释了Scaling Law,将其称为“终极摩尔定律”——提升推理效率,用单位时间、能源产生更多Token(词元,大模型推理算力计量单位,每个字符、标点都是一个Token)。其中有两个重点:

其一,单个用户每秒生成Token数量。

其二,单位电力下生成的Token数量。

黄仁勋披露了未来的芯片演进路线图,称这会“每年像时钟一样准时更新一次”——每两年一次架构演进,每一年都有新的产品,每次都会有成倍的效率提升。

也就是说,“买的越多,就省得越多。买的越多,就赚得越多。”

重新定义Scaling Law

Scaling Law原本是OpenAI前联合创始人伊利亚2020年在论文中提出的理论。

这一理论影响了大模型产业此后三年的发展路径——大型科技公司(如亚马逊、微软、谷歌、阿里、字节跳动、腾讯等)因此都选择大力出奇迹,用万卡、十万卡训练更大的模型。

但在2024年11月,伊利亚公开反思,过去堆砌算力的暴力手段岌岌可危,需要寻找更高效的替代方案。

最直接的案例是,马斯克旗下创业公司xAI用20万枚英伟达H100/H200系列芯片训练模型,算力规模是上一代模型的10倍,模型性能却只提升了不到20%。与此同时,得益于芯片、模型、算法优化,推理算力成本正以每年10倍的速度下降(微软CEO萨提亚·纳德拉、OpenAI创始人萨姆·奥尔特曼观点)

因此,提升推理效率被认为是新的优化方向。

2024年9月来,OpenAI o1和DeepSeek-R1这两款推理模型的出现意味着市场技术的方向有所转变——大模型竞争焦点从训练走向推理。国际市场调研机构IDC 2025年报告预测,2027年“训练+推理”的算力大盘中,73%将是推理算力,26%是训练算力。这和过去训练算力占比超过70%,推理算力不足30%的格局截然相反。

英伟达的叙事逻辑也要重写——2025年之前是堆砌芯片数量提升模型性能,2025年之后是提升推理效率、降低推理成本。

这也是黄仁勋在GTC 2025重新解释Scaling Law的核心原因。黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了。目前的推理效率并不高,用户需要花太长时间等待模型响应。未来需要提升推理效率。10倍的Token数量和10倍的计算速度,意味着计算量还将增加100倍。