“数据飞轮”强化AI智能体“内功心法” 加快开启生产力“相变”
作者:毛烁
如果说蒸汽机解放了人类的体力,计算机延伸了人类的脑力,那么在人工智能时代,我们正迎来一场更为深刻的变革——智能体(Agent)崛起下,其不再仅仅是工具,而是具备自主思考、决策和行动能力的智能“协作者”。
AI智能体并非简单的脚本或自动化程序。其是高度集成的智能系统。想象一下,这是一个能够理解自然语言指令、自主搜索并整合信息、进行逻辑判断并采取行动的数字实体。
这些AI智能体可以“深入”企业的各个角落,承担起此前需要大量人力投入的复杂任务。从财务报表的智能分析、市场数据的实时监控,到客户咨询的个性化应答、供应链风险的预测预警,AI智能体展现出了惊人的效率和准确性 。
尤为值得关注的是,AI智能体正在从单体应用走向协同化、系统化的“多智能体系统”架构——数百个拥有不同专长和目标的AI智能体能够无缝协作,共同完成复杂、跨部门的综合性任务 。
AI智能体的强大能力并非一蹴而就,它们如同初生的生命,需要在与环境的交互中不断学习和成长。而驱动这种成长的核心机制,便是“数据飞轮”——一个持续循环、自我强化的AI智能体优化闭环 。
️NVIDIANeMo:为代理式 AI 构建“数据飞轮”的三重数据流
在当前企业竞相拥抱人工智能以驱动增长和效率的时代背景下,AI智能体在企业中正逐步扮演起“数字成员”的角色,它们需要持续、高质量的数据输入来维持和提升自身的理解能力和可靠性。
如果将智能体视为一个学徒,缺乏持续的指导和实践(即数据),其技能(性能)必然停滞甚至退步。
NVIDIA NeMo微服务的正式全面推出,正是为了应对这一挑战,为企业IT部门提供一个端到端、功能完备的开发者平台。其核心目标是帮助企业快速组建并赋能其AI团队,通过构建和利用强大的“数据飞轮”,显著提升员工的生产力。
NVIDIA NeMo 微服务拥有“端到端”的特性,能极大程度上加快AI智能体的开发、部署与管理流程。这些工具涵盖了从数据策划、模型定制、性能评估到安全防护的各个环节。
️使用 NVIDIA NeMo 微服务构建的数据飞轮不断整理数据、重新训练模型并评估其性能,整个过程几乎无需人工干预,实现了最大程度的自主性
️(来源:NVIDIA)
但是,想让生产环境中的AI智能体“不掉链子”,光靠训练远远不够,那只是“基础温饱”,还需要三类数据支持其“续命”:
️推理数据是洞察模型在真实环境运行实况、并捕捉数据模式演变的关键,确保模型能够动态适应;️业务数据提供模型所需的最新的业务信息,确保其输出的智能性与当下保持同步;而️用户反馈则直接验证模型与应用表现是否符合预期,是校验效果和指导优化的重要依据。
这三类数据是AI模型在生产环境中保持活力、实现持续迭代优化的关键。NVIDIA NeMo微服务正是帮助开发者高效整合、管理并充分利用这三类数据的重要工具。
NVIDIA NeMo 微服务组合,包括 NeMo Customizer、NeMo Evaluator 和 NeMo Guardrails,与 NeMo Retriever 和 NeMo Curator 协同工作,共同构建并为企业定制专属的数据飞轮,从而简化企业构建、优化和大规模扩展 AI智能体的复杂任务。
具体而言,️NVIDIA NeMo Customizer专注于加速大语言模型的微调过程。它采用了业界主流且高效的后训练技术,如监督微调(SFT)和低秩自适应(LoRA),能够将训练吞吐量提升高达1.8倍,显著缩短了模型针对特定企业数据的适应周期。
️NVIDIA NeMo Evaluator 则极大地简化了模型和工作流的评估流程,无论是自定义模型还是基于行业基准的评估,都只需通过五次应用程序接口 (API) 调用即可完成,提高了评估效率和迭代速度。
而️NVIDIA NeMo Guardrails 微服务,对于确保AI智能体的行为符合组织政策和安全准则至关重要,它能在仅增加额外半秒延迟的情况下,将合规性保护能力提高至多1.4倍,为企业实施强效的安全防护措施提供了坚实保障。
借助NVIDIA NeMo 微服务及其构建的数据飞轮,开发者能够显著提升AI智能体的准确性和整体效率。这些微服务通过 NVIDIA AI Enterprise 软件平台部署,具备卓越的易操作性,并且可以在任何加速计算基础设施上运行,无论是本地数据中心还是云端环境,都能提供企业级的安全性、稳定性和强大的支持。
随着企业业务复杂性的提升,构建大规模多智能体系统已成为趋势。在这样的系统中,数百甚至数千个具有不同目标和工作流的专用智能体,作为“数字员工”,协同处理极其复杂的任务,与人类员工并肩工作,实现跨职能的辅助和效率提升。
这好比高度自主分立协作的生命体,各个器官(智能体)各司其职,通过精密的协调(数据飞轮驱动的交互与学习)共同维系整体的健康运转。
这种深远的企业级影响使得 AI智能体被业界视为一个价值万亿美元的巨大商机,其应用场景极为广泛,涵盖了从自动化欺诈检测、智能购物助手、预测性机器维护到海量文档自动审查等多个领域。
而这一切应用的成功落地与规模化推广,都突显了“数据飞轮”在将企业业务数据转化为可操作、有价值的洞见,并驱动实际行为方面的关键作用。
这一过程中,NVIDIA NeMo 微服务正是赋能企业构建并驾驭这一核心能力的关键工具。
️精度与协同“和弦”:准确攀升+广泛生态支持
从具体表现上看,NVIDIA NeMo微服务能够显著提高AI智能体的准确性、效率和成本效益,推动企业级 AI 应用迈向新的高度,加速实现更智能、更高效的业务流程和用户体验。
鉴于此,NVIDIA NeMo 微服务正成为行业领导企业开发下一代 AI智能体的首选,更得益于广泛的模型和合作伙伴生态系统的支持。目前,众多领先企业正积极采用NVIDIA NeMo 微服务构建高性能 AI 智能体平台,以赋能团队处理更复杂的工作。
他们在核心业务流程中的成功应用,以及取得的显著成果,也充分展现了NVIDIA NeMo 微服务在提高AI智能体准确性方面的强大效果。
具体来看,AT&T 与 Arize 和 Quantiphi 合作,利用 NVIDIA NeMo 构建了先进的 AI 智能体,用于处理包含近10,000份文档且每周更新的知识库。这款可扩展的高性能 AI 智能体针对速度、成本效益和准确性这三大关键业务重点进行了微调,随着应用规模的扩大,其重要性也与日俱增。
AT&T 通过使用NVIDIA NeMo Customizer 和 NVIDIA Evaluator对 Mistral 7B 模型进行微调,成功将其准确率提高40%,极大地增强了其提供个性化服务、防止欺诈和优化网络性能的能力。
贝莱德(BlackRock) 则在其通过通用数据语言统一投资管理流程的 Aladdin 技术平台中集成了 NeMo 微服务,以赋予代理式AI功能。
思科 Outshift 团队与 Galileo 利用 NVIDIA NeMo 微服务打造的编码助手,成功将工具选择错误减少 40%,并将响应时间加快了 10 倍。
此外,纳斯达克正基于 NeMo Retriever 微服务和 NVIDIA NIM 微服务加速其生成式 AI 平台,NeMo Retriever 的集成显著增强了平台的搜索能力,使准确率和响应时间提高了 30%,并节省了成本。
这些来自行业头部企业的实践案例,有力地证明了 NeMo 微服务在提升 AI 智能体性能和效率方面的卓越成效。
其实,NVIDIA NeMo 微服务被广泛应用和采纳,很大程度上归功于其对业界众多主流开放模型的广泛支持,这些模型包括Llama、微软Phi 系列小型语言模型、GoogleGemma、Mistral,以及在GTC 2025大会上发布的在科学推理、编码和复杂数学基准测试中表现领先的NVIDIA LlamaNemotron Ultra。
NVIDIA方面透露,在繁荣的合作伙伴生态系统之下,Meta通过Llamastack实现深度集成,并利用NVIDIA NeMo的Customizer、Evaluator、Guardrails等服务,顺畅构建并运行AI智能体工作流,从而有效赋能企业利用“数据飞轮”持续优化模型表现、提升效率并降低成本。
目前,NVIDIA正基于NVIDIA NeMo微服务,联合各方力量推动AI智能体发展。通过与Dataiku、LangChain等主流工具深度集成来支持开发者;NeMo Retriever组件则与戴尔等数据平台合作,将被SAP、ServiceNow等企业广泛采用。这些智能体还将部署在思科、戴尔等提供的加速基础设施上,埃森哲、德勤等咨询公司也通过NeMo 微服务协助客户构建和实施方案。
而这一切能力和服务,都可通过在NVIDIA NGC 目录下载NVIDIA NeMo 微服务获取。这些微服务在作为NVIDIA AI Enterprise 的一部分进行部署时,能够提供长期稳定的软件分支,实现 API稳定性、主动安全修复和企业级支持。