华泰2025中期展望 | AI:New Scaling,New Paradigm,New TAM

2025-06-11ASPCMS社区 - fjmyhfvclm

全球AI展望:New Scaling,New Paradigm,New TAM

展望全球AI发展趋势,1)模型端新架构正逐步探索,预训练Scaling Law有望呈现新起点;2)算力端训练与推理共同推动算力需求持续上行,有望开启新TAM,同时算力硬件设计进入新范式;3)应用端商业模式变革带来新范式,Agent在细分领域率先落地带来新TAM。持续看好AI产业投资主线,看好全球AI应用进入业绩收获期。

模型:预训练Scaling Law有望开启新起点

回顾近三个季度以来的大模型迭代情况,强化学习(RL)带来的后训练test-time compute依然是大模型的主流迭代方向。经典transformer架构下模型参数规模或已达到了瓶颈,人类现有公开数据已接近被使用完。但值得注意的是科技巨头在预训练阶段仍在继续尝试,以腾讯混元Turbo S与Gemini Diffusion为代表的大模型开始尝试在架构上进行探索,或是Scaling Law提速的可行性方案,我们认为,预训练Scaling Law有望开启新起点。

算力:需求长期上行趋势明确,算力硬件设计进入新范式

1)训练端来看,模型层后训练阶段不断有新的Scaling路径涌现;新架构正在积极探索过程中,未来有望重启预训练阶段的算力需求叙事;全球大规模算力集群有望伴随英伟达B系列交付节奏的恢复加速推进。2)推理端来看,Agent大量的工具调用、信息交互与多模态推理带来tokens消耗量数量级的提升,长期看好全球算力需求持续上行。3)产业趋势来看,目前大模型对网络、延迟、计算、功耗等等之间的平衡要求更高,软硬件协同设计有望成为新的趋势,系统的综合能力越发重要。英伟达发布NVLink Fusion强化其在互联领域的壁垒,昇腾CloudMatrix 384超节点创新高密度机架方案,算力硬件设计进入软件指导设计、系统定义能力的新范式。

应用:Agent进展提速,看好全球AI应用进入业绩收获期

产业趋势来看,伴随模型在工具调用等方面的迭代,Agent任务长度Scaling加速,长序列瓶颈正在突破;MCP等协议统一了工具调用生态,国内外厂商快速跟进,可商业化的Agent产品快速发展。落地节奏来看,受益于国产大模型的能力追赶,国内AI应用加速产品迭代,快速进入商业推广阶段。目前,美股头部AI应用厂商Q1业绩大部分持续超预期,存量客户的渗透率基本接近10%,国内AI应用加速实现从简单环节到复杂环节的产品升级,25年有望实现复制推广,我们看好全球AI应用在25年进入业绩收获期,打开成长空间。

落地节奏展望:商业模式变革,看好细分场景率先放量

不同于传统软件,Agent应用从交付工具转变为交付结果,按效果付费由于ROI可量化加速了落地节奏,新范式有望成为行业共识。Agent产品必须要与垂直行业数据、垂直场景数据深度结合,才能实现真正的商业化落地,数据复杂度低、幻觉容忍度高的场景有望率先实现规模化商业落地。具体来看:1)2C场景(广告、电商、虚拟陪伴等)因幻觉容忍度较高,成为商业化进展较领先的业务场景;2)AI+营销/销售,具有数据资源的天然优势,业务目标可量化,共同驱动AI快速商业化;3)AI+HR,由于语言与数据密集型的特征天然适合自动化改造,AI应用正从“效率工具”到“战略中枢”进行跃迁。我们看好AI应用在数据与流程标准化程度高的细分领域率先放量。

风险提示:宏观经济波动;技术落地不及预期;本研报中涉及到未上市公司和未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。

模型:预训练Scaling Law有望开启新起点

大模型技术路线呈现出从预训练到后训练的发展过程

回顾大模型的迭代历程,呈现出从预训练到后训练的发展过程。大语言模型的预训练主要包括参数集的扩大、训练数据的扩大以及模型架构的优化。自2017年Google提出Transformer架构,通过自注意力机制首次实现了序列数据的全局关联建模与高效并行处理。自此预训练的Scaling Law开启。回顾过去大模型的迭代,2018-2024年9月主要是模型的预训练阶段。参数量来看,2024年主流大模型迭代至千亿级别,而后参数扩大的趋势有所放缓。进入2025年,以Llama 4 Behemoth为代表的模型进一步将参数扩大至2万亿级别。

自2024年9月OpenAI o1模型开始,大模型进入后训练阶段。随着经典transformer架构下,预训练数据已达到瓶颈(如现有互联网公开文本几乎耗尽),业界从“堆参数”转向后训练优化,通过指令微调(SFT)和人类反馈强化学习(RLHF)对齐人类意图。大模型在基础路线和架构上没有太大的变化,强化学习(RL)带来的后训练test-time compute是大模型的主流迭代方向。全球的大模型厂商大都在遵循OpenAI于24年9月提出的这一路线。包括2025年1月DeepSeek的发布,依然是在基础模型的底座上进行大规模的强化学习,并没有完全脱离主流路线。

经典transformer架构下模型参数规模扩大放缓,新架构探索未来可期。从2024年9月后的模型端的更新来看,多数的模型更新的重点在于后训练阶段的优化,模型参数与训练数据的数量已达到瓶颈,最大规模模型参数数量维持在2万亿参数上下,目前还没看到更大的突破,主要由于在当前架构下扩大参数数量未能看到模型性能的显著提升,当前互联网公开数据在训练中已经接近使用完毕,这导致了预训练阶段的探索放缓。但在近期,我们也看到了以新架构探索为代表的新一轮预训练开启的信号。

预训练Scaling Law有望开启新起点

如果说有一些新的变化,我们认为还是要关注大厂对于模型技术路径的创新,有几个值得关注的点:

1)腾讯于25年2月发布了混元大语言模型TurboS,是业界首个大规模部署的Transformer-Mamba专家混合(MoE)模型,通过Mamba架构在长序列处理上的卓越效率与Transformer架构在上下文理解上的固有优势的有机协同,实现了性能与效率的平衡。具体架构采用了创新的“AMF”(Attention → Mamba2 → FFN)和“MF”(Mamba2 → FFN)模块交错模式。

2) Google的Gemini Diffusion可能是另一突破点。Google于5月的I/O大会上发布了Gemini Diffusion文本扩散模型,能够通过将随机噪声转换为连贯的文本或代码来生成输出,类似图像/视频生成模型的工作模式(Transformer模型是一个词一个词输出,而Diffusion模型一次性输出很多词再做优化,连贯性好)。Gemini Diffusion在生成内容的速度上明显快于Transformer类模型,官方指出输出速度约1479 tokens/s,而一般的Transformer类最快也只能每秒输出数百个token。Gemini Diffusion在数学和代码等编辑任务中表现出色。我们认为,Gemini Diffusion是大厂在商业化模型上首次将扩散模型用于文本生成,或是类似于OpenAI o1一样的重要路径转折点,实现快速地迭代解决方案,并在生成过程中进行错误校正。

3) 大厂在预训练阶段参数量、数据量扩大仍有尝试。从近期的预训练阶段的更新来看,主要包括Meta与小米,Meta的Llama 4系列模型参数进一步扩大,Llama 4 Behemoth总参数达2万亿级别,是目前发布的最大参数的模型。数据量方面,小米近期发布的MiMo系列模型,运用了约200B tokens合成推理数据,进一步扩大了训练数据规模。

4) 大规模算力集群落地支持模型预训练的探索。随着OpenAI星际之门与xAI colosuss大规模算力集群在未来的交付,预训练有望进一步向前推进。Sam Altman在星际之门的纪录片中表示星际之门算力集群的部署是为达到AGI而建,而非满足OpenAI推理需求。我们看到在预训练阶段的探索没有停滞,OpenAI、xAI等厂商在更大规模算力的支持下预训练有望迎来新的突破。

模型架构的改进,或是Scaling Law提速的可行性方案,预训练有望开启新的起点。2024年12月在神经信息处理系统会议(NIPS)上,Ilya Sutskever指出:1)现阶段语言模型在预训练阶段,已经达到了瓶颈,因为人类当前生产的公开数据几乎全部被用完。2)新数据或合成数据没有带来大的变化。3)大模型与人类大脑类似,但人类仍在进步,因为人类具有自我意识会使用工具创造新的知识,LLMs将结合Agent和工具推动这一进程。另外,Ilya还引用了《The evolutions of large brain size in mammals: the 'over-700-gram club quartet'》,用来说明人类大脑Scaling Law的速度快于普通哺乳动物,因此,将Transformer比作哺乳动物的话,那么下一步要点就是发现一个新的架构,其Scaling的速度能达到人类大脑的水平,这样就能在有限的数据下,进一步提高模型性能。我们认为,模型架构的改进,或是Scaling Law提速的可行性方案。

算力:训练推理两条主线共同推动算力需求持续上行

长期看好全球AI算力需求持续上涨趋势不改。2025年以来,模型层面,以DeepSeek为代表的国产大模型通过MLA、MoE、低精度训练等工程化优化进一步将大模型性能-成本曲线拓展,带来“算力通缩”趋势;同时从近期各大厂发布的大模型迭代来看预训练阶段的Scaling law有所放缓;产业层面,25Q1北美云大厂资本开支增速及指引放缓、英伟达B系列芯片交付节奏不及预期,产业端一系列变化暂时压制算力预期。

但我们认为,训练端与推理端都对未来AI算力需求保持积极推动:

1)训练端来看,模型层后训练阶段不断有新的scaling路径涌现;新架构正在积极探索过程中,未来有望重启预训练阶段的算力需求叙事;全球大规模算力集群有望伴随英伟达B系列交付节奏的恢复加速推进,主权AI正逐步落地。

2)推理端来看,例如google、meta等大厂原有业务的AI改造需求仍有较大空间,推理算力持续部署;Agent的加速落地有望带来tokens调用量几十到百倍提升,推理需求有望加速放量,看好全球AI算力需求持续向上。

训练端:后训练新Scaling路径不断涌现,新架构在持续探索中

后训练阶段的Scaling Law成为大厂的共识。2024年底,预训练阶段的scaling law的放缓趋势初现,目前在经典Transformer架构基础上的算法优化成为各大厂所追求的方向,从各大厂发布的论文来看,Post-training阶段与Inference阶段的新Scaling路径不断出现,包括模型微调、SFT、RM、PRM、RLHF、RLAIF、CoT、MLA等在内的算法优化不断证明后训练阶段Scaling Law的有效性。同时,Qwen团队提出的Parallel Scaling(并行计算)也进一步拓展了模型的Scaling路径。

更多新架构如若出现有望重启预训练阶段Scaling Law叙事。正如上文所述,腾讯混元Turbo-S在transformer架构的基础上叠加Mamba架构在长文本能力上表现更加出色,Google Gemini Diffusion将扩散模型引入文本模型提升生成速度,各大厂对于新架构探索的尝试正逐步出现,更多新架构如若出现有望重启预训练阶段的Scaling Law,带来又一轮的训练算力需求增长。

产业端来看,以“星际之门”为代表的大规模算力集群进展顺利。OpenAI星际之门在美国德克萨斯州阿比林的一期工程与xAI Colossus孟菲斯算力中心项目目前正在顺利进展中,星际之门阿比林一期工程将包含8个建筑,每座建筑中都会有5万块完全互连的大型GPU集群,总共有多达40万块芯片,总发电容量将达到1.2GW,这也让它成为世界上已知最大的计算集群之一。从最新发布的项目现场视频来看,目前其中2座主体建筑基本完工,伴随英伟达GPU的逐步交付正在进行算力机架与冷却系统的铺设。同时XAI在Colossus计算集群安装了20万个GPU,仍继续加码算力投资,计划再次建立一个包含100万GPU的计算集群。

中东版“星际之门”落地,主权AI正逐步落地。5月22日,OpenAI宣布将在阿联酋阿布扎比建设一个超级数据中心集群,这是“星际之门”计划的一次重大海外扩张。OpenAI此次合作对象是阿联酋本土AI公司G42,由阿联酋主权财富基金支持。双方将在阿布扎比共建一个总容量高达5GW的数据中心集群,大约等于5座核电站的发电能力。通过阿比林项目1.2GW/40万张GPU测算,阿布扎比数据中心集群有望部署160w张GPU。项目将分阶段推进,第一阶段将先建设一个1GW的小型集群,其中200兆瓦预计将在2026年投入运营。OpenAI表示将继续向欧洲、亚太地区拓展,寻找新的数据中心选址。我们认为,AI算力逐步成为各国家下一阶段的竞争要素,主权AI的逐步落地有望推动算力需求的持续提升。

产业供给端加速,台积电新建工厂节奏加速。作为AI算力产业链的前线环节,台积电近年来扩产节奏加速,2017-2025年,台积电平均每年新建三座晶圆厂。2021-2024年,每年新建晶圆厂的数量增加到五座。2025年,台积电将每年新建晶圆厂的数量增加到九座,以支持以英伟达为代表的客户产品交付。在这九座晶圆厂中,有八座是晶圆厂,还有一座是先进的封装厂。伴随新产能的逐步落地,英伟达B系列交付节奏或将加速。我们认为,台积电新产能规划预示着未来算力需求产业角度的乐观预期。

推理端:Agent落地带来推理需求快速增长

Agent需求的快速增长或将带来推理算力几十甚至上百倍的提升。据Artificial Analysis统计,在Scaling Law初期,模型的发展方向是更大参数,能够带来约5倍的算力提升。随着模型进入后训练和推理时代,模型输出的token数将有约10倍的提升。而Agent时代,每个Agent在处理单任务时所需的请求数(request)有约20倍的提升,且Agent基本都是由推理模型驱动的,因此整体算力提升或有几十至上百倍。

大量的工具调用与信息交互带来tokens消耗量数量级的提升。Agent在执行任务时会进行任务分解与编码,复杂任务常常涉及几十个不同的任务,或在执行过程中涉及到屏幕内容的识别,这些与chatbot阶段不同的任务流程将大大提升tokens的消耗。同时,未来多Agent互联的场景下,不同agent间的通讯合作将再度加大算力的需求。我们认为,Agent的落地带来交互次数、任务复杂度、使用频率的提升,同时如屏幕识别等多模态的场景进一步加大tokens的消耗,整体算力需求或提升几十到上百倍。

Agent单次任务推理算力需求测算。以70B参数模型支持的Agent为例,假设单次生成长度为100 tokens,按照OpenAI 2NBS的计算公式计算,训练算力需求为C=2*70B*100= 14*10^12FLOPs=14TFLOPs。同时,并发数量是Agent算力需求的重要指标,QPS(Queries Per Second,每秒查询数)是衡量AI Agent处理并发请求能力的关键指标,直接影响算力需求。假设并发请求数量为10次,则总算力需求=单次请求FLOPs*QPS= 14TFLOPs*10=140TFLOPs/s。以A100服务器 312FLOPs/s计算,假设利用率为50%,则需要140/(315*50%)≈1台A100服务器。

Agent产品用户数量增长迅速带动算力需求提升。根据similarweb数据,现有Agent产品月活跃人数增长迅速,截至2025年3月底,Manus自发布后不到一个月时间月活用户增长至2310万人,N8n月活人数达526万人,字节扣子月活人数498万,Genspark月活人数达442万人。从目前有数据公布的Agent产品来看,月活人数增长迅猛,预计随未来越来越多的Agent产品放量,推理阶段的算力需求将迎来放量。

算力硬件新范式:软件指导设计、系统定义能力

以Scale-up与Scale-out持续迭代,算力系统综合能力成为下一代大集群的设计重点。DeepSeek不断发布的研究成果展示了其高效的硬件优化能力,4月3日发布的新论文“Scaling Challenges and Reflections on Hardware for Al Architectures”揭示了其软硬件协同的更多技术细节,同时从大模型底层算法出发,提出了低精度驱动、互联驱动与大规模网络驱动的硬件设计启示。证明了单纯算力的性能指标不是AI硬件的评定标准,目前大模型对网络、延迟、计算、功耗等等之间的平衡要求更高,未来算力基础设施的设计或将反向针对大模型要求进行优化,算力系统的综合能力愈发重要。

NVLink Fusion强化英伟达AI硬件生态优势。英伟达在ComputeX大会新提出的NVLink Fusion允许包括ASIC、CPU在内第三方芯片公司接入NVLink的生态链,借助英伟达卡间互联能力创建类似GB200的超级芯片。通过Spectrum-X以太网与Quantum-X800 InfiniBand技术,NVLink Fusion可将千卡集群利用率从60%提升至90%,训练成本降低50%以上,同时支持异构计算场景(CPU+GPU+ASIC混合架构)。

国产算力加速迭代,算力硬件架构不断创新

美国对华AI出口限制进一步强化。继H20禁运后,BIS进一步升级对华半导体技术出口限制措施,强化对先进计算芯片和相关技术的对华出口限制。世界范围内禁止使用昇腾910系列(B/C/D)芯片,世界范围内禁止使用美国AI芯片训练和推理中国AI大模型,禁止IaaS提供商为中国训练AI大模型。在国产算力生态初步起势的背景下,美国AI竞争策略从单纯限制变为对其他国家的技术推广,美国放松芯片对中东等其他国家的出口限制,进一步加大对于中国AI软硬件发展的限制。我们认为,美国对中国大模型的更严苛的限制倒逼国产替代加速,昇腾生态初步起势,长期看好国产算力产业链发展。

华为云推出CloudMatrix 384超节点服务器,从服务器向算力矩阵拓展。HW新的CloudMatrix 384超节点服务器,基于910C芯片进行设计,性能约为前代910B的2倍,功耗约为前代2.6倍。基于384个910C可以组建CloudMatrix,对标NVL72的高密度方案。从芯片设计方案上来看,910C的方案类似于B200的芯片架构,采用双芯粒合封方案,基于两颗910C等效芯粒,实现单卡性能的翻倍提升。机架方案来看,CloudMatrix 384超节点服务器采用全光互联,实现单节点的算力突破。超节点网络交换机采用6812个400G光模块,实现2.8Tbps卡间互联带宽。

国产算力单卡性能落后的背景下,高密度Scale-up机架为性能追赶提供可行路径。从单卡性能来看,910C较GB200仍有差距,体现在算力、HBM、能效比等参数上。单颗昇腾芯片的性能仅为英伟达Blackwell GPU的三分之一,但五倍于后者的芯片数量弥补差距。完整的CloudMatrix系统可提供300 PFLOP的密集型 BF16 计算能力,约为GB200 NVL72的两倍。在单卡性能有限的情况下,以量换性能的方式或对其他厂商而言具备借鉴意义。在不考虑功耗、成本、能源等参数情况下,证明了可以用芯片堆叠的方式实现对NV最先进方案的反超。目前的系统通过6912个 400G光模块、上百台叶/脊交换机实现互联,但各个层级的互联速率低于NV方案。考虑到未来推理对低延迟的需求,因此后续如何提升数据交换效率,也是集群改进的重要方向之一,持续看好未来国产算力的迭代。

应用:Agent进展提速,看好AI应用进入业绩收获期

国内Agent快速追赶,全球AI应用共同迈入商业化阶段。1)产品化(2023年):2023年全球软件厂商开始打磨AI应用产品,海外产品进展略领先于国内;2)初步商业化(2024年):海外AI应用逐步实现AI应用成熟度的完善并明确定价模式(订阅+用量),率先进入商业化阶段,国内AI应用加速产品化进展并开始产品标杆试点;3)规模商业化(2025年):受益于国产大模型的能力追赶,国内AI应用加速产品迭代,快速进入商业推广阶段,全球AI应用有望于2025年实现规模化业务放量,看好全球AI应用商业化进展。

Agent或是AI应用的终极形态,目前雏形初具

Agent可能是大模型应用落地的终极形态。我们认为,Agent和Chatbot的核心智能均来源于大语言模型,这是相同的。而Agent区别于Chatbot最大的特点,在于其能自主的、持续的解决长序列的问题,并且能够在大模型的智力驱使下使用合适的工具。OpenAI将Agent定义为AI系统的第三层级,后续AI系统还能够进行发明创新和实现组织能力。我们认为,虽然Agent仅位于AI系统Level 3,但是其使用工具、自动解决问题的理念,可能是大模型应用落地的终极形态,后续大模型的能力或主要围绕Agent这种形式展开。

可商业化的Agent产品快速发展,Deep Research功能是目前较成熟的应用方式。从目前商业化的Agent产品来看,实现方式上以虚拟机为主,好处是不用占据用户的本地设备使用权限,可以完全在云端运行,而且支持多任务并行。另一种方式是利用模型的多模态能力对GUI(图形用户界面)进行推理,然后进行键鼠、触屏等操作来模拟人类,好处是可以绕开各类App的底层权限。功能上看,Deep Research较为成熟,本质是让大模型不停的搜索各种网页,然后根据用户的问题形成专业调研报告,一般会持续推理10-30min。

Agent能力达不到在日常工作中大规模实用的程度,根源或不在LLM的智能,而是在于暂时难以将更长的动作序列串联起来。当前前沿AI大模型在大多数考试类问题上的表现甚至超越人类专家,而且通过接入API等工具能够扩展其“动作”能力范围。但是在完成复杂、长期的任务上,Agent能力仍显得有限,且目前尚未有能够大规模使用的通用Agent应用问世。其中的核心根源或在于Agent难以将更长的动作序列串联起来,来完成复杂的长期任务。据METR数据(METR选取了2019年至2025年3月期间能力较好的Agent,在约200项任务上进行测试,主要是编码任务和一般推理任务),当模型在完成耗时少于4分钟的任务时,成功率接近100%;但对于耗时超过4小时的任务,成功率不到10%,达不到能够在日常生活工作中大规模实用的程度。

“任务长度”是AI Agent Scaling Law的关键衡量指标,19-24年每7个月翻倍。虽然当下Agent对于长任务的完成率还达不到实用程度,但是Agent Scaling Law提升速度很快。据METR数据,2019-2024年,AI Agent完成任务的时长持续呈指数级增长,翻倍时间约为 7 个月。以此趋势发展,2029年之前,或将看到 AI Agent能够独立完成大量目前需要人类数天甚至数周才能完成的软件任务。这一趋势甚至还在加速,2024-2025 年4月 Agent 能完成的任务长度约每4个月翻一倍,如果以这种更快的趋势持续下去,Agent可能在2027年就能完成长达一个月的任务。2025年5月,Anthropic发布了新模型Claude 4 Opus/Sonnet,官方指出新模型可在扩展思考过程中并行调用工具,并且模型独立运行7小时仍保持稳定性能,记忆能力上也显著超越了所有前代模型,我们认为,模型能持续执行的“任务长度”增速显著,Agent的长序列瓶颈终将被突破。

MCP为Agent开启了统一度量衡的时代

Agent的许多功能的实现依赖外部工具调用,之前不同的模型工具调用方法不统一。大模型无法执行诸如联网搜索、垂类数据搜索、地图导航、天气查询等能力,因此需要在推理时调用外部的应用工具来弥补这些能力,这也是Agent存在的基础。问题在于,不同的大模型提供商采用的结构和参数格式各不相同,使得对多模型集成、统一管理和标准化接入变得复杂而繁琐。

Anthropic提出的MCP为Agent统一了工具调用生态。Anthropic于24年11月发布模型上下文协议(Model Context Protocol,简称MCP)。MCP是一种开放标准,标准化地为大语言模型(LLMs)提供应用场景和数据背景,使开发人员能够在数据源和人工智能工具之间建立安全的双向连接——开发人员可以通过MCP服务器公开数据,也可以构建连接到这些服务器的AI应用程序(MCP客户端)。MCP在开发者和Anthropic的共建下逐步得到认可,OpenAI和Google先后宣布对MCP的兼容和支持,国内阿里、字节、腾讯等大厂也纷纷布局MCP生态。MCP的普及为Agent快速构建和发展提速。

AI原生应用海外商业化更好,AI Coding是重要垂类赛道

从Anthropic发布的Economic Index看,Coding和教育是Claude模型主要的应用垂类。25年3月,Anthropic基于其Claude 3.7模型,统计了垂类领域的模型调用情况,发现自Claude 3.7 Sonnet推出以来,Coding以及教育、科学的使用份额有所上升。其中Coding在调用量中占有绝对优势,占比高达40%左右。其他调用较多的领域包括艺术/设计/娱乐、办公/行政支持等。

反常识的是,月活用户多的AI应用并不一定商业化好,细分垂类反而有不错的货币化效果。据a16z数据,对月活跃用户数量排名前50的移动应用与月收入最高的应用(来自移动订阅)进行分析,结果发现只有40%的应用重叠。收入或使用量排名前50的80款应用中,许多使用量较低的应用反而实现了较好的商业化。垂类的应用更有可能吸引那些愿意为其专业价值付费的用户。

海外AI应用:25Q1业绩大部分超预期,全年收入指引积极

关税激发更强的AI下游需求,美股AI应用Q1业绩大部分超预期,收入指引积极。从Q1业绩表现来看,大部分美股软件公司Q1业绩超预期,AI成为重要增长驱动。AI商业化进展顺利主要在于两点:一是AI产品经过标杆客户验证功能已基本成熟,二是下游客户想通过投资AI实现降本对冲关税风险。AI应用提速下,SAP、ServiceNow、Palantir等2B企业Q1业绩超预期增长,尤其是对于25年全年的收入指引转向更积极态度,比如ServiceNow在电话会中指引FY26 AI收入达到10亿美元量级,预计AI收入占比提升至5-6%。

AI产品客户渗透情况来看接近10%,海外AI应用全年收入有望加速增长。我们统计了截至24年年报的数据,头部2B软件AI产品在存量客户的渗透率基本接近10%,Salesforce的Agent产品由于上线较晚(24年9月)渗透率偏低。目前海外Agent产品均采用“订阅+用量”的混合定价模式,我们认为,在实现客户渗透的基础上,长期来看海外AI应用收入有望加速释放。

相关公司梳理

1)AI基础设施服务:Microsoft、Google、Amazon、Oracle、Cloudflare;

2)2B应用:Palantir、SAP、ServiceNow、Salesforce、Workday;

3)2C应用:Duolingo、Reddit;

4)数据服务:Snowflake、MongoDB、Elastic。

国内AI应用:25Q1利润率先改善,全年收入放量可期

国内AI应用加速实现从简单环节到复杂环节的产品升级。Agent应用能力边界拓展本质在于数据访问权限与模型能力边界的拓展,国内AI应用加速从简单数据环节向复杂数据环节进阶。1)2CAI应用:完成从通用AI搜索向个人知识管理的产品升级,并加速进入生活Agent助理场景,以Manus为代表的通用型Agent初步实现商业化;2)2BAI应用:完成从企业知识库到单点Agent的能力跨越,25年伴随MCP、A2A等标准化协议推广,2B应用开始布局跨业务的多Agent协同功能,有望实现复杂场景的Agent交互与协同。

25Q1 AI应用公司利润指标率先改善。我们筛选21家AI应用公司作为样本,其中8家企业25Q1收入同比增速优于去年同期,11家企业净利润率水平优于去年同期,利润指标改善幅度优于收入,主要原因在于两点:1)企业AI内部提效效果显著,带动期间费用率下降;2)AI应用目前商机充分,但转化为订单、收入仍需一定周期。我们认为,部分公司24年已完成AI应用的标杆项目验证,25年有望实现复制推广。

AI商业化24年已初步验证,25年有望加速复制推广。我们筛选泛ERP、轻办公、AI+行业、数据等四大类AI应用标的,可以看到AI商业化验证24年已初步完成,以汉得信息、鼎捷数智、万兴科技为例,三家公司24年AI应用收入已突破千万量级。受益于DeepSeek带动下游客户AI需求,25Q1各家公司的业务进展显著提速。

MCP有望加速AI应用产业节奏,应用公司态度积极。MCP协议旨在实现AI应用开发的标准化,对于加速AI应用产业落地具有重要意义。海外Anthropic、OpenAI、Microsoft、Google,国内阿里、腾讯、百度已全面支持MCP,AI应用公司同样快速接入MCP生态。泛ERP类、数据类公司支持MCP,主要是在PaaS平台内提供MCP服务,便于企业开发者打造更丰富的Agent功能;轻办公类、AI+行业类公司支持MCP,主要作为MCP Server提供工具化能力。我们认为,AI应用放量趋势日益明显,产业生态正在加速完善。

相关公司梳理

1)2C应用;2)2B应用;3)基础设施;4)数据标注。

具体公司名单,请见研报原文。

落地节奏展望:商业模式变革有望成为共识,看好细分领域率先放量

AI应用展望一:从交付工具到交付结果,重视AI应用商业模式变革

不同于传统软件,Agent应用从交付工具转变为交付结果,商业模式也对应发生改变,按效果付费的新范式有望成为行业共识。1)产品定位:传统软件定位为软件即服务,将软件应用作为辅助工具,旨在提升人类员工的工作效率与企业的管理能力;Agent应用定位为服务即软件,将软件应用作为数字员工(数字生产力),旨在替代人类员工完成任务交付最终结果;2)收入影响指标:传统软件应用是工具属性,员工人数是影响软件厂商收入的关键指标;Agent应用是服务属性,具体效果或成为影响软件厂商收入的新指标;3)商业模式:考虑到产品定位与收入影响指标变化,软件厂商的Agent产品开始新商业模式探索。以Salesforce为例,Agent最早沿用SaaS订阅模式(50美元/人/月),后转变为按用量付费(每使用一次客服Agent 2美元),我们认为,后续有望转变为按实际使用效果付费。

AI应用展望二:数据复杂度影响落地节奏,看好细分场景率先放量

我们认为,Agent 产品必须要与垂直行业数据、垂直场景数据深度结合,才能实现真正的商业化落地,从业务逻辑与实际进展看,数据复杂度低、幻觉容忍度高的场景有望率先实现规模化商业落地。

2C应用幻觉容忍度较高,商业化进展或领先于2B。从 AI 落地节奏来看,2C场景(广告、电商、虚拟陪伴等)因幻觉容忍度较高,成为商业化进展较领先的业务场景。以Meta为例,Meta于2024年开始推荐系统与广告系统的AI升级,实现了用户留存时间的增长与广告转化率提升。根据公司25Q1电话会介绍,得益于推荐系统的AI改进,过去半年内Facebook 用户使用时长增加了7%,Instagram 用户使用时长增加了6%,得益于广告系统的AI改进,25Q1 Reels的新的广告推荐模型带动广告转化率提高了5pct。在2B场景,客户场景的复杂度相对较高、对模型输出的精准度要求更高,落地节奏或慢于2C场景。

2B应用分场景来看:数据复杂度是影响AI应用落地节奏的关键因素,数据复杂度越低的场景商业化进展越快。1)简单难度梯队:企业知识库、企业高管数智助手率先完成产品落地,主要通过大模型实现企业文件资料与业务系统数据的读取与分析,不涉及跨业务系统的数据双向交互;2)中等难度梯队:企业人/财/物管理Agent、销售/客服Agent或是25年的重点放量环节,此类环节涉及多业务系统的数据交互,同时对于数据分析精准度要求较高,24H2海外应用厂商通过企业数据中台架构搭建了此类Agent的技术基础,有望在25年实现业务放量;3)复杂难度梯队:生产/工艺流程Agent对于精准度要求再度提升,同时涉及数据的实时预测与分析,目前此类应用仍在试点阶段,以Palantir为例,24Q4公司推出的Warp Speed计划,正是以优化工业生产为目标的系列Agent功能,目前仍在验证阶段。

2B应用分行业来看:数据基础好、客户预算足的行业进展较为领先。1)数据基础好:企业私有数据是大模型降低幻觉的重要因素,因此信息化程度高、数据基础好的行业具备更优的AI落地基础;从海外来看,Agent应用下游景气度较高的行业主要包括政府、军事、工业、金融、法律等数字化基础较好的行业;2)客户预算足:客户预算也是影响产品落地节奏的重要因素,大型客户相较中小型客户的AI投资意愿更强,因此大客户占比较高的软件公司AI业务进展也更为领先,以ServiceNow为例,其下游大客户较多,截至24年底,AI产品渗透率已接近12%(存量客户8,000+家,AI应用采购企业数为1,000家左右)。

AI应用展望三:AI+营销/销售,数据丰富+可量化ROI+标准化流程三大因素驱动AI快速商业化

AI在营销和销售领域的应用已从技术探索阶段迈入到规模化应用。营销和销售领域成为AI大模型落地较快的场景之一,核心原因在于其数据驱动的本质、业务目标的可量化性、流程的标准化特征与 AI 技术特性高度契合。

一、营销和销售是企业直接产生收入的环节,业务目标可量化,ROI 驱动快速验证。营销和销售的核心目标(如销售额提升、提升广告支出回报率 ROAS、转化率、客户留存率)具有明确的量化指标,便于企业快速评估 AI 应用效果,因此企业更愿意投入成本尝试。相比之下,医疗、金融等领域虽信息密度高,但合规风险和伦理争议(如误诊责任、数据隐私)导致落地周期更长。营销领域的 “短平快” 特性(如短视频广告的即时反馈)使其成为 AI 商业化试水的理想场景。

二、数据资源的天然优势。营销领域是企业数据密集的场景,涵盖用户行为、消费偏好、市场趋势等多维度数据。这些数据为 AI 模型提供了丰富的 “燃料”,使其能够快速学习并优化营销策略。此外,营销数据的实时性(如短视频平台的日活数据)和结构化特征(如广告点击、转化等指标)进一步降低了模型训练门槛,加速技术落地。

三、流程标准化与工具化:低门槛的技术集成。营销全链路(从内容生成、投放优化到效果分析)具有清晰的流程节点,流程的可拆解性降低了技术集成难度,企业无需重构业务体系即可快速部署 AI 解决方案。

企业客户对于AI营销的需求已经从单一工具向全链路智能中枢升级。营销链路可以分为公域引流阶段以及私域引流阶段,传统营销模式下企业注重在公域引流上的投入,但在后互联网时代下,越来越多企业注重私域运营以实现企业业务的稳定增长。

1)洞察环节:企业利用AI打通线上线下数据,自动聚合多源数据(社交媒体、CRM、电商平台),实时生成市场趋势报告。

2)内容生产:营销内容生成与创意突破。基于大模型生成个性化文案、图像及视频,缩短创作周期。

3)媒介投放:利用AI进行精准营销,并动态优化广告预算分配,实现ROI的快速提升。

4)后链路管理:自动化客户触达与售后服务,提升客户互动体验。

AI营销/销售领域的市场格局非常分散。AI营销/销售领域的市场格局非常分散,按照沙利文《中国营销及销售SaaS解决方案市场行业研究报告》数据显示,2023年迈富时(Marketingforce)是中国最大的营销及销售Saas解决方案厂商,份额为3%;Saleforce、微盟、纷享销客、有赞市场份额分别为1.8%/1.8%/1.5%/0.9%。

AI有望重塑行业格局。当前,AI已成为重塑数字营销及销售行业的重要力量。我们认为,对行业的深刻理解、AI技术领先性、成熟的销售网络、强大的品牌知名度等将成为厂商胜出的重要因素。

AI应用展望四:AI+HR,应用全面开花,从“效率工具”到“战略中枢”的跃迁

AI在HR领域的应用已经“全面开花”。美国人力资源管理协会(SHRM)调查显示,大约66%的HR专业人士已经在日常工作中使用人工智能,高于八个月前的约30%。HR科技企业HireVue发布的《2025全球AI招聘指南》调查了全球4000多名HR负责人和员工,结果发现AI在HR领域的采用率已从2024年的58%跃升至2025年年初的72%。国内大型互联网公司的HR部门已经开发出内部AI系统,覆盖招聘、培训、员工关怀等多领域。如字节开发了AI面试官,可以根据岗位要求自动生成面试问题并评价候选人回答;阿里的人才发展团队则利用AI分析员工学习数据,为数万员工定制个性化的学习路径。

HR 领域成为 AI 大模型落地较快的场景之一,本质上是由其业务特性、技术适配性和市场需求共同决定的。

1、HR业务流程天然适合自动化改造

HR 职能涵盖招聘、培训、绩效、薪酬、员工关系等全生命周期管理,其中大多数环节具有重复性、规则性和数据密集型特征:

1)招聘场景:涉及到简历筛选、职位描述撰写、面试邀约等流程,需处理海量文本数据;

2)员工服务场景涉及到假期申请、薪资查询、政策咨询等高频事务性工作,可通过 AI 聊天机器人 7×24 小时响应;

3)合规管理场景涉及到合同审核、考勤核算、数据合规等需严格遵循法规的环节,AI 可自动校验风险点。

2、HR 场景是典型的语言密集型领域,LLMs可以很好的解决语义理解与生成、跨模态信息处理、对话交互等核心问题。

3、HR系统积累了企业较完整的结构化(如员工档案、考勤记录、绩效评分、薪酬数据等)和非结构化数据(如面试录音、培训反馈等),且企业对HR环节“降本增效”的需求非常刚性。

AI在HR领域正从“效率工具”到“战略中枢”进行跃迁。AI大模型在HR领域的商业化应用,短期可以解决招聘、行政等环节的效率瓶颈,降低成本;中期可以通过员工数据洞察(如离职预警、技能图谱),辅助管理层进行组织优化;长期会成为企业“人才战略大脑”,自动规划人才供应链、预测劳动力市场趋势,甚至参与企业文化建设(如智能员工关怀)。因此,HR领域成为大模型技术与企业管理深度融合的最佳试验场之一。

根据艾瑞咨询《2025年中国人力资源数字化研究报告》(以下简称“报告”),2024年中国人力资源数字化市场规模约303亿元,同比增长13.2%。全球经济下行压力下,企业IT支出趋于保守,对人力的管理目标也从业务增长向成本优化转移。人力数字化市场进入存量优化阶段,增量需求更多依赖于AI应用及功能迭代。AIGC技术成熟及应用场景深化,催生员工培训、知识管理、人才盘点等场景有望在未来2-3年内实现AI成熟应用。《报告》预测,2027年中国人力资源数字化市场规模将达到484亿元。

HCM SaaS市场格局相对分散,北森控股蝉联榜首。根据 IDC 发布的《中国人力资本管理 HCM SaaS 市场 2024 上半年跟踪报告》,北森位居中国 HCM SaaS 市场整体第一,市场份额上涨至 14.93%,自 2016 年至 2024 年上半年已连续 8 年蝉联榜首。在 Core HCM、招聘管理 SaaS 和绩效管理SaaS三大HCM SaaS 子市场中,北森也凭借战略及产品的创新突破,连续多年保持领先,优势明显。

除北森外,市场上还有众多其他厂商参与竞争。如浪潮海岳 HCM 凭借领先的技术实力与市场表现,入选2024年度中国企业人力资本应用市场 TOP3,成为大型企业人力数字化转型首选。此外,金蝶、用友、SAP、Oracle 等厂商也在市场中占据一定份额。

AI时代,具有丰富的HR垂直场景数据、积极布局AI的企业有望获得更多增量机会。面对AI浪潮带来的历史性机遇,领先厂商如美国的Workday、HireVue,以及中国的北森控股、金蝶国际、用友网络等公司均在积极布局AI Agent布局。其中部分公司的AI Agent产品已经快速实现商业化变现:如Workday FY26Q1由AI驱动的订阅收入为20.59亿美元,同比增长13.4%。我们认为,市场份额高、HR垂直场景数据积累丰富、AI布局早的企业有望获得更多增量业务机会。

AI应用展望五:AI+医疗,AI正在构建药物研发新范式

AI正在构建药物研发新范式,创新药有望进入全新发展阶段。AI正在加速向新药研发的各个环节渗透,未来将从化学合成环节走向临床前及临床试验等生物环节,全球头部创新药研发企业纷纷拥抱AI。基于多模态深度学习算法,研究者能够系统整合基因组、蛋白质组等高维数据,实现全维度靶点特征挖掘与优先级排序。知识图谱技术的创新应用同样成效显著,BenevolentAI通过构建跨学科知识图谱,成功挖掘出具有全新作用机制的慢性肾病治疗靶点,相关候选药物进入到临床试验阶段。只有当AI被用于连接药物发现各个阶段之间的点,并构建一个从假设到临床前和临床阶段的端到端系统时,才能真正实现范式转变。

各类大模型正广泛应用于药物发现的各个环节。药物发现领域的大模型包括三类,一种是使用专门针对蛋白质(如ProGen和ESM3)、DNA(如DNABERT和Evo)、单细胞数据(如scGPT)和小分子(化学语言模型)等特定科学领域的tokens序列表示进行训练的特定基础模型。另一种是调整经过良好训练的通用大型语言模型以适应特定的科学领域,例如用于小分子的Tx-LLM和用于蛋白质的ProLLAMA。第三种涉及从头开始训练科学数据增强的LLM,主要使用文本数据和少量科学数据,例如BioGPT和Galactica。利用大模型可以加速潜在药物候选物的识别,预测药物的安全性、有效性和药代动力学性质,优化先导化合物,并预测合成途径,通过自动化和加速药物发现的各个阶段,帮助研究人员更有效、更高效地识别有希望的药物候选物,从而显著缩短药物开发时间并降低成本。

各大厂积极进行AI医药研发大模型的布局。Google推出AlphaFold模型用于预测分子结构,同时利用通用LLM Gemma微调推出用于医药研发领域的大模型TxGemma,在此基础上推出智能助手TxGemma-Chat与智能体系统Agentic-Tx;微软于2025年2月发布适用于包括小分子、蛋白质、核苷酸等多实体的预测大模型NatureLM;Salesforce推出了蛋白质生成AI大模型ProGen;微软发布了蛋白质生成的通用AI框架EvoDiff;亚马逊为其AWS机器学习平台SageMaker发布了蛋白质折叠工具;英伟达推出了用于药物发现的生成AI云服务BioNeMo,并投资了制药公司Recursion Pharmaceuticals和Iambic Therapeutics。

DeepMind AlphaFold持续迭代,革新药物发现范式。AlphaFold系列模型是由Google DeepMind最早于2018年提出的预测蛋白质结构的模型,基于Transformer架构进行构建,而后持续迭代。2025年开源AlphaFold 2,借助该模型,发布了AlphaFold蛋白质结构数据库, 98.5%的人类蛋白质结构全被AlphaFold2预测出来。2024年5月提出AlphaFold 3版本,实现对蛋白质之外的上亿个结构物分子的复合物进行联合结构预测,还可以模拟蛋白质、DNA、RNA和小分子之间的复杂相互作用,而这种能力有望帮助科学家加深对疾病机制和药物相互作用的理解,对药物发现至关重要,使得大模型在医药研发领域的可用性进一步提升。

商业化进展来看,医疗制药领域AI应用进展迅速。AI制药领域公司商业模式包括以下几类,1)CRO商业模式是大多数公司商业化的首选方案,即提供分子设计服务(如设计和优化小分子、抗体、多肽、PROTAC等),代表企业包括AbCellera、Insilico Medicine、Evotec和Labcorp;2)AI制药SaaS服务,通过提供AI软件辅助药物发现流程,用户通过订阅服务的方式访问平台,获取用于药物发现的各类工具和资源,代表企业包括Insilico Medicine、Exscientia和Atomwise等;3)自研管线,通过AI驱动进行药物发现并积极推动管线进程,海外代表性企业包括Recursion Pharmaceuticals、Atomwise、Exscientia、Relay等。

AI正在驱动临床试验范式的系统性变革,AI制药市场规模增长迅速。根据BCG数据,在临床前阶段的药物发现步骤中,AI可以节省至少25%~50%的时间和成本。根据The Business Research Company最新数据,全球AI制药市场规模将从2023年的15.8亿美元增长至2028年的56.2亿美元,年复合增速达28.5%。

总结

综上所述,AI产业最新进展呈现出新Scaling、新范式、新市场空间三个关键词。

模型端来看,预训练阶段的Scaling Law有望开启新起点。各科技大厂继续推动后训练的持续演进,模型能力尤其是在工具调用、复杂任务处理方面的能力持续提升。同时,以腾讯混元Turbo S与Google Gemini Diffusion为代表的大模型开始尝试在模型架构上进行探索,或是Scaling Law提速的可行性方案,OpenAI与xAI的大规模算力集群持续落地支持模型预训练的探索,预训练阶段的Scaling Law叙事有望重启。

算力角度来看,训练与推理两条主线共同推动AI算力需求持续上行。训练端来看,模型层后训练阶段不断有新的scaling路径涌现,新架构正在积极探索过程中,全球大规模算力集群有望伴随英伟达B系列交付节奏的恢复加速推进,有望重启预训练阶段的算力需求叙事;推理端来看,Agent的加速落地,用户数量迅速增长,大量的工具调用、信息交互与多模态推理带来tokens调用量几十到百倍提升,推理需求有望加速放量,算力端有望迎来新TAM,看好全球AI算力需求持续向上。

应用端来看,Agent正加速从单一场景到复杂场景落地。伴随模型在工具调用等方面的迭代,MCP等协议统一了工具调用生态,Agent任务长度Scaling加速,长序列瓶颈正在突破,可商业化的Agent产品快速发展。不同于传统软件,Agent应用从交付工具转变为交付结果,商业模式也对应发生改变,按效果付费由于ROI可量化加速了落地节奏,新范式有望成为行业共识。Agent产品必须要与垂直行业数据、垂直场景数据深度结合,才能实现真正的商业化落地,从业务逻辑与实际进展看,我们认为,数据复杂度低、幻觉容忍度高的场景有望率先实现规模化商业落地。

综上,伴随模型能力的持续提升与工程化优化,Agent能力持续迭代,海内外厂商正逐步探索出可复制的Agent落地厂家,建议关注Agent的加速落地。

具体公司AI业务梳理,请见研报原文。

宏观经济波动。若宏观经济波动,产业变革及新技术的落地节奏或将受到影响,宏观经济波动还可能对IT投资产生负面影响,从而导致整体行业增长不及预期。

技术落地不及预期。若AI等技术落地不及预期,或对计算机行业公司整体产品迭代、收入增长节奏产生负面影响。

本研报中涉及到未上市公司和未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。

研报:《AI展望:New Scaling,New Paradigm,New TAM》2025年6月10日

郭雅丽 分析师 S0570515060003 | BQB164

范昳蕊 分析师 S0570521060004

袁泽世 分析师 S0570524090001

岳铂雄 分析师 S0570524080004

王浩天 联系人 S0570125010006

(转自:华泰证券研究所)

全部评论