中电金信受邀出席2025 AI算力产业技术应用峰会
4月2日,中电金信受邀参加“2025 AI算力产业技术应用峰会”。大会以“点亮AI未来,汇聚算力之巅”为主题,聚焦前沿发展趋势,与来自全国各地的学术界大咖、产业领军人物及行业精英,共同探讨算力基座、智算中心、大模型应用、人机交互等核心议题。
会上,中电金信研究院容器云技术实验室主任王磊以《异构算力管理与AI应用开发的双向奔赴》为主题发表演讲,从算力市场调研分析、算力加速平台功能架构、典型应用场景等角度,系统阐释了异构算力资源的高效调度与AI应用开发的深度融合路径。
️王磊在会上进行主题演讲
王磊认为,随着人工智能技术进入大模型时代,智能算力需求迅猛增长,推动算力产业规模飞速扩张。算力市场正朝着智能化升级加速、算力服务化转型提速以及 AI 服务场景化渗透等方向持续发展。然而,当前在算力运营方面,仍面临来自基础设施、资源调度、业务支撑和运维监控等多个维度的挑战。我们迫切需要对异构算力进行全面管理与智能调度,以满足行业的场景化需求。最终,实现计算效力的最大化,有效支撑 AI 应用的开发,推动异构算力管理与AI应用开发的“双向奔赴”。
️源启算力加速平台是中电金信研发的智能算力管理平台,定位为支撑AI应用和服务的基础设施,平台集成多种硬件和软件能力,提供高性能、高可靠性和高可扩展性的计算资源。通过融合异构算力资源接入、管理、调度与编排,向上为 AI 负载提供软件服务能力,提高AI应用的研发效率,降低技术门槛,帮助用户实现从底层算力到上层业务的闭环价值输出。
展开全文️源启算力加速平台产品架构图
源启算力加速平台具备以下主要特性,广泛适用于️算力运营、云边算力协同、智能知识库、训推一体、故障智能诊断等典型场景,帮助用户实现资源即智能。
️■ 采用集群化管理、资源池化调度,提供多种模式的算力调用和计量模式,满足不同场景的算力需求;
️■ 支持加盟算力、边缘算力接入,实现云边协同下的算力纳管,以及模型服务和AI 应用的分发;
️■ 支持镜像缓存和下载加速,集成 vLLM、SGLang 等推理加速框架,提高任务启动速度与推理效率;
️■ 提供开发者友好的虚拟化开发环境,支持传统使用模式,兼顾效率和用户体验,通过算力虚拟化提高资源利用率,降低采购成本;
️■ 提供面向LLM 推理场景的AI 网关,支持访问权限控制、流量路由与负载均衡、模型服务灰度发布、token统计、流量监控与治理等能力;
️■ 具备极致的弹性伸缩能力,支持0副本及基于访问的冷启动;
️■ 具备丰富的网络、算力、AI服务的监控能力;
️■ 具备多租户分层管理能力,为不同用户提供安全、隔离且灵活的资源配置,通过调度优化技术,实时监控和管理算力资源,促进高效的算力运营;
️■ 内置丰富的镜像、模型服务及智能体开发所需的中间件能力,开箱即用,提供必要的基础设施能力;
️■ 采用Kubernetes Native架构,所有资源均可通过原生工具进行管理(如 kubectl 和资源 API),方便系统间集成。
源启算力加速平台作为一套集成多种计算资源和服务的技术框架,致力于为AI负载提供卓越的软件服务能力,以促进资源的智能化利用。未来,平台将专注于软硬能力协同、跨云编排与智能调度,以及分布式处理能力优化等主要研究方向,力求打造一个高效、弹性且透明的多云算力加速平台,以实现计算资源的最优配置和智能决策的全面提升。