推出半定制AI基础设施,英伟达的算力叙事有变
要说在这一轮AI浪潮中谁吃到了最大的红利,除了造风的OpenAI之外,毫无疑问就是“卖铲子”的英伟达了。对于有志于在人工智能领域有所作为的企业而言,购买英伟达的GPU几乎是必选项。
由于AI算力的需求无限大,且几乎垄断了算力供给,就成就了英伟达实现全球市值第一公司的逻辑。但在进入2025年后,这家全球最火的科技公司日子却有点不太好过,年初横空出世的DeepSeek-R1改变了他们的AI算力叙事,“卖铲子”这个生意没那么好做了。
英伟达CEO黄仁勋日前在COMPUTEX 2025上宣称,“英伟达已不仅是一家科技公司,而是一家关键的AI基建企业”。由一家AI芯片公司转型为AI基础设施公司,并力图成为AI时代的“运营商”,这也是自DeepSeek-R1/V3问世之后,黄仁勋多次向外界阐释的变化。
为了实现转型,英伟达方面在COMPUTEX 2025期间发布了NVLink Fusion半定制AI基础设施,意味着各行各业在构建AI系统时不必完全使用英伟达的方案,还能借助高通、联发科等合作伙伴的定制CPU、定制AI加速芯片,来实现与其GPU的通信。
美国消费者新闻与商业频道(CNBC)援引半导体和技术分析师Ray Wang的观点,就是NVLink Fusion的出现反应了英伟达计划占领基于ASIC(专用集成电路)的数据中心市场份额。而ASIC数据中心,则一直被视为基于英伟达GPU数据中心的竞争对手。
其实英伟达推出NVLink Fusion的原因很简单,因为AI ASIC被认为是AI算力芯片的下一个蓝海,更是成为了需要适应不同业务场景和商业模式的CSP(云服务提供商)的新宠。根据Marvell的预测,随着AI计算需求的增长, ASIC占据数据中心加速计算芯片的比例有望提升至25%,预计2028年数据中心ASIC市场的规模将提升到429亿美元。
ASIC芯片在AI领域大放异彩,其实是AI技术发展的必然结果。事实上,AI算力分为训练算力和推理算力,训练算力主要用于AI模型的训练阶段,即通过大量的数据和算法对模型进行参数调整和迭代优化,推理算力的应用场景则是基于训练好的模型,对新的输入进行计算。
简而言之,训练算力是搭建大模型本身需要的算力形式,推理算力才是使用DeepSeek R1、OpenAI o1完成各种任务时,所消耗的算力。
2022年年末亮相的ChatGPT带火LLM(大语言模型),由此也引发了一众科技企业竞相打造自研大模型的“百模大战”。在这一时期,大模型的预训练是算力的主要需求点,而英伟达的GPU由于高适配性和性能强大,成为了算力卡的最佳选择。性能领先的GPU、资源完善的CUDA,以及GPU高速网络传输协议NvLink,就构成了英伟达在算力卡领域的核心竞争力。
然而到了2025年,事情就有了变化,DeepSeek证明了开源大模型也能有先进性。开源模型的成熟不仅让相当一批AI厂商放弃卷大模型、并转向AI应用,也让更多的用户和设备需要运行AI模型。让用户先把AI用起来,就成为了当下AI厂商的共识,此时行业热点也从AI大模型变成了AI原生应用、AI智能体。
过去AI应用迟迟无法落地,源于大模型难以满足开发者的需求,其中API价格便宜的模型能力不足,性能足够的模型却又缺乏性价比。幻方量化的DeepSeek、阿里的通义千问Qwen模型等性能领先的开源大模型,为AI行业实现了一次“降本增效”,也让越来越多的个人用户与企业愿意去尝试AI。
从某种意义上来说,AI行业目前的状态与上世纪90年代的互联网产业几乎如出一辙。由于技术的进步降低了资源的使用成本,反过来就促成了总体需求的增加,因此导致资源消耗总量上升。这也是为什么黄仁勋会预言AI基础设施产业的市场规模,将达到数万亿美元。
与此同时,大模型的性能进步也遇到了瓶颈,此前依靠更大尺寸、更多数据的Scaling laws(尺度定律)模式不灵了。通过增加计算量、模型参数和数据集大小来提升单个大语言模型的智能水平不再有经济性,诸如Meta的LIama 4翻车以及xAI的Gork3提升不大,其实都证明了这一点。
总而言之,现阶段AI算力市场的特点是训练算力需求下滑,推理算力需求却是在提升。而在提供算力这个层面,ASIC芯片要比英伟达GPU更有优势。由于ASIC可针对特定算法和应用进行优化设计,能够在特定任务上提供更强大的计算能力,从而满足各行各业对于不同场景的需要。同时AISC的硬件结构往往是为特定任务定制,能够最大限度减少不必要的功耗,所以能效比也更强。
事实上,ASPCMS社区、Meta、亚马逊的AWS、微软Azure等美系CSP,已经有了逐年扩大采用自研ASIC芯片的趋势。所以英伟达GPU垄断AI算力供给的时代已经过去,拥抱AISC反而是最有利的选项。当时代变了,CUDA生态的红利已经兑现后,英伟达就没法继续“卖铲子”了。