近日,在2022科大讯飞全球1024开发者节发布会上,科大讯飞股份有限公司(以下简称科大讯飞)ai研究院副院长高建清以ai新纪元,讯飞超脑2030为主题,详解讯飞超脑2030计划阶段性技术突破,一大波预演未来的创新应用将走入日常生活。
高建清表示,实施讯飞超脑2030计划,旨在突破人工智能共性基础算法,攻克多模态感知、多维表达、认知智能、运动智能等核心技术,研究软硬一体的机器人关键技术,探索虚拟人交互、机器人等方面的示范应用。
突破两个关键算法让ai更好地学习、推理
讯飞超脑2030计划的发展,离不开两个关键算法的突破,无监督学习和知识推理。高建清说,前者需要实现实用化、场景化的预训练技术,后者需要构建基于知识检索、决策以及融合的推理系统。
科大讯飞设计了基于无监督学习的预训练模型,并创新地使用了少量有监督数据进行优化,大幅提升训练效率。高建清说:预训练模型支持语音识别、声纹识别、情感识别、多模态语音识别等多个任务,参数量少于业界公开模型,但训练效果却十分显著。
以回答面包在低温下会马上发霉吗这一问题为例,机器要理解低温变质慢等常识,在引入海量知识的基础上,要用预训练模型进行知识重要性排序,也要融合知识与问题进行推理,才能与人畅聊面包变质的二三事。
科大讯飞还探索将神经网络与符号推理相结合,打造了知识推理系统,实现推理过程的可解释性。在小学平面几何题上,这个推理系统让ai答题的正确率提升到90%的水平,显著优于传统推理系统。
多模态语音增强技术让ai的声音有感情
在讯飞超脑2030计划中,唇形 语音的多模态语音增强技术,实现了智能语音交互新模式。
想要让机器更自然地与人类进行交互,就需要通过听觉、视觉、语义以及各种传感器的组合让机器获取更多的有用信息,ai的感知方式必然要从单模态发展到多模态,逐步拟人化。高建清表示。
如何让机器的声音媲美人类?高建清分享了科大讯飞在语音合成技术领域的新突破多风格多情感合成系统smart-tts。
高建清介绍,smart-tts可提供高兴、抱歉、撒娇、严肃、悲伤、困惑、害怕、鼓励、生气、安慰、宠溺等11种情感模式,每种情感模式依程度强弱不同分为20档;smart-tts还具备对机器声音的个性化设置功能,如停顿、重音、语速等,用户可以根据自己的喜好调节。
当你漫步林荫路,ta可以用字正腔圆的播音腔为你读新闻;当你结束一天工作准备入睡,ta可以轻声细语为你读散文;当你驱车去公司上班,ta可以用你最喜欢的歌手的声音告诉你走哪条路不堵车;当你和家人一起观看纪录片,ta还可以为纪录片不同人物配音,人机交互表达自然、情感饱满。
精彩评论文明上网理性发言,请遵守评论服务协议