打破交互困局:科大讯飞这样出手

fjmyhfvclm2025-06-17  5

2025年6月12日,科大讯飞在深圳成功举办“交互引领 智启新章”的智能交互产品升级发布会。

当前,交互行业正经历着智能化的跃迁,但依然面临三大核心挑战:多模态融合不足、垂直场景适配率低、实时交互延迟高。

应对行业的交互困境,科大讯飞一口气发布多款平台与应用:AIUI开放平台更新,新增模板智能体开发,全链路交互贯穿三方知识库和私有模型;适用儿童交互的童言识别引擎登场;三麦阵列降噪的智能眼镜能快速分析需求,实时翻译;机器人超脑平台再升级,智能语音背包实现即插即用;“一张照片+5分钟”生成你的数字分身?科大讯飞推出的虚拟交互平台支持82种语言生成。

大会现场,科大讯飞还推出了面向办公、人力与企业数字化等刚需场景的十大开箱即用的场景化解决方案。同时,主办方特别设置了覆盖100 余项创新产品的体验区。

从能听会说到高情商创作,科大讯飞通过一系列方案更新针对性解决了人机交互中延迟慢、不精准等痛点,引领智能交互迈向更加高效、自然、智慧的阶段。

尽管智能交互不断进步,用户体验与预期的自然流畅却相去甚远。

️交互过程中的延迟感是首要痛点。而当指令涉及多步骤任务时,主流语音助手的完成率就更低了。智能家居场景中,关闭所有灯光指令若延迟,明显的等待感不如直接手动开关;车载语音系统在导航查询时,秒数级的延迟可能导致驾驶员错过关键路口决策时机。

️用户被迫适应“机器的节奏”,经常需要调整自己的表达方式来适应设备的理解能力,比如必须使用固定句式或关键词才能得到正确响应——这无疑违背了人机交互的初衷。嘈杂环境中,语音识别准确率大幅下降;多步骤任务中,系统往往只能执行单一指令,无法理解复杂意图。

尤其是对于发音还不够标准、各种概念表达还不够准确的儿童来说,与智能助手对话常常面临着各说各话的尴尬。一方面,主流智能平台难以从碎片化的童言中拼凑出儿童想表达的意思;另一方面,心智尚不成熟的幼儿无法像成年人一样调整对话方式引导机器,可能常常面临对话终止的尴尬。

️而对企业级用户而言,企业知识库开发和适应业务需求模型微调上,企业尤为重视数据隐私安全,交互全流程自主研发难度大,私有化成本高。智能交互的场景适应性差也是难点,在展厅、工厂等嘈杂环境下的交互质量明显下降。并且,企业需要为每个应用场景单独开发交互模块,开发周期长、维护难度大。系统的更新也需要重新训练模型,影响产品迭代速度。这些痛点严重制约了交互产品的广泛应用和价值释放,传统交互设备呼唤着智能化的升级。

针对传统人机交互领域的多重痛点,科大讯飞构建了互补协同的AIUI开放平台和机器人超脑平台。

️AIUI平台是一套全链路的人机智能交互解决方案,旨在通过语音、图像、手势等自然交互方式,实现人与机器之间的持续、双向、自然沟通。

该平台自2015年上线以来,持续迭代升级,现已成为智能硬件、机器人、智能家居、车载系统等领域的核心交互技术提供商。

6月12日发布会上,科大讯飞宣布旗下AIUI开放平台已升级为全链路交互开发平台,通过整合讯飞星火大模型,为开发者提供更灵活、强大的交互能力。

️一方面,AIUI平台让交互速度提升、精准度提高。

️AIUI平台通过技术优化,将交互响应时间压缩至1.6秒,结合星火大模型的AIUI增强了深度语义理解能力,用户不再需要翻译自己的想法为机器可理解的格式;对话体验上,AIUI平台的全双工交互技术打破了传统“你说完我再说”的壁垒,️系统允许用户随时插话、打断或补充,真正做到“不抢话、不冷场”如同自然人际交流般流畅。为了让开发更简单便捷,AIUI新增模板智能体,让开发者通过可视化的配置即可构建智能体。同时AIUI云端链路开放了三方知识库、智能体和私有模型的引用,企业开发者不用上传数据即可使用AIUI全链路语音交互技术,保护了企业的数据隐私安全,复用了企业已经开发完备的资产。

️针对环境噪声,科大讯飞发布了三麦阵列降噪技术,改善了用户在厨房烹饪、户外活动等真实场景中的交互体验。智能眼镜等穿戴设备借助三麦阵列降噪,突破了环境噪声限制,实现了一对一私密对话。设备能精准捕捉佩戴者的语音指令,提升了室外复杂环境下的语音识别成功率。骑行者无需减速停车即可通过语音操控导航和通讯功能;户外工作者能在嘈杂的工地环境中一次性完成语音指令;旅行者可以在喧闹的街道上进行实时语音翻译。

️另一方面,情感计算为智能交互注入了温度。

️科大讯飞针对儿童群体首发推出了儿童专属交互方案,当儿童表现出沮丧情绪时,系统会以温和鼓励的语调回应;当检测到用户愉悦时,则采用更活泼的交流方式。情感适配改变了智能设备冰冷刻板的传统印象。

️AI毛绒玩具采用AIUI的7911儿童交互开发套件,优化声学模型与语义纠偏技术,精准识别模糊发音与跳跃式提问,支持情绪感知与寓教于乐内容推荐。例如,孩子说“我想看星星”,设备不仅播放科普视频,还会引导孩子用英语描述不同星体的特征。

发布会现场,几位程序员宝爸受邀参加了一小时儿童应用开发比赛。他们需要依托星辰Agent平台,为手中的硬件开发版建构针对童言童语和幼儿心理的儿童交互Agent。

并且,为解决个性化不足问题,科大讯飞构建了对话上下文、用户画像和生活事件三层记忆系统,让设备能够更好地理解个性化用户习惯。智能家居领域,AIUI全链路优化技术解决了传统设备连接复杂、操作繁琐的问题,还通过深度理解用户意图,将分散的指令整合为场景化控制。当用户说出我要看电影时,系统自动调暗灯光、关闭窗帘、打开投影设备并调出常看的影片类型。

2015年正式上线以来,AIUI平台日均交互量已突破3亿次,链接生态伙伴超20万,在电视、车载、儿童教育、机器⼈等领域建⽴行业标杆。

作为科大讯飞的第二个技术引擎,机器人超脑平台就像是机器人的智慧中枢系统。超脑平台突破了传统机器人单一功能执行的局限,通过多模态感知融合与认知决策能力的深度整合,实现了机器人从机械执行到智能交互的升级。

️一方面,理解能力显著提升,机器人有了眼、嘴、大脑。整合视觉、语音、力觉等多维传感数据的多模态交互系统,使机器人能像人类一样综合判断环境信息,环境感知准确率提升至92%。基于星火大模型的认知理解能力,让机器人具备社会常识和专业知识双重理解维度,可应对开放场景下的多样化需求。

小鱼、艾米等搭载超脑平台的穿山甲服务机器人,支持自然语言对话、导览、送餐等功能,应用于酒店、政务、医疗等场景,交互准确率显著提升;基于超脑平台的“3D形象生成+AI语音合成”数字人,支持多语言播报、表情动作同步,已用于新闻播报、直播带货等场景。

️另一方面,机器人的行动更加高效、流畅,实现了从感知到决策再到执行的闭环智能。发布会上首次亮相的智能语音背包让机器人即插即用,轻松开口。采用模块化设计的智能语音背包,所有功能集成一体,可快速集成到现有机器人或智能设备中,无需改动硬件或额外开发语音交互系统,开发门槛大大降低。大会现场,搭载智能语音背包的G1文能作诗撩妹,武能拳打太极,引得现场观众阵阵欢呼。

服务于工业场景中,服务机器人通过机器人超脑的多模态感知,实现了高度自然的服务体验;在银行、医院、政务大厅等公共服务场所,机器人不仅理解问题本身,还能察觉用户情绪,调整回应策略;在数据高敏感的工业场景,端侧部署大模型支持离线通话,没有网络也能及时互动;在物流仓储行业,机器人复杂任务执行成功率超过95%。

最新数据显示,目前讯飞机器人超脑平台产品覆盖人形机器人、四足机器人、公共服务机器人等500多家机器人厂商;其中60%使用了包括麦克风阵列降噪到语音交互全链路交互方案。

不止AIUI和机器人超脑,讯飞科大在发布会上还推出了一系列智能交互产品。

在2025科大讯飞智能交互发布会上亮相的️虚拟人交互平台,堪称数字分身制造机。用户仅需上传一张照片、录入5分钟语音,就能在分钟级内生成专属虚拟形象与克隆音色,连方言口音都能精准复刻。

️依托星火大模型,虚拟人不仅支持82种语言流畅对话,还能通过手势、眼神实现多模态交互,就像黄石市民之家的黄小政,能主动识别方言为老人答疑。目前,该平台已积累超100万声音复刻用户,渗透媒体、金融、教育等行业,例如新闻主播通过文字一键生成播报视频,电商虚拟主播实现多平台24h带货,让交互体验从能用升级为沉浸式陪伴。

大会现场,科大讯飞开放平台总经理赵艳军就靠语音与照片实时生成了自己的数字分身“小赵”。大屏幕上的小赵分身不仅语音模仿得惟妙惟肖,还精通多门外语,不忘词、不结巴,让演讲者本人也直呼精妙。

不止静态的数字分身,讯飞平台还发布了“能说、会动、可感知”的移动数字人解决方案。大会现场,移动数字人“小雨”声动相随、灵活闪现,面对随机提问,现场嘉宾与小雨一问一答,互动感十足。

据悉,自讯飞星火大模型正式发布以来,讯飞开放平台已新增超过453.6万开发者,其中大模型直接相关的开发者数量超过148.1万,企业级用户超过88.5万。海外开发者团队数51.8万遍布新加坡、中东、日韩及欧洲。讯飞生态合作伙伴已突破1152万。

商业维度,科大讯飞累计中标项目已超130个,总金额突破14亿元,中标数量和金额均大幅领先行业。

今天的科大讯飞手握AIUI、机器人超脑平台两大技术引擎,在教育、医疗、金融、工业等多个领域深度赋能,真正让AI从实验室走向千家万户。而在时代的见证下,科大讯飞的智能交互之路还将走得更深、更远。

转载请注明原文地址:https://m.aspcms.cn/tech/1846734.html
00

热门资讯