百度CTO王海峰:语言知识布局要始终把握两大趋势

2020-08-27 14:46   来源: 互联网

在百度语言知识技术的布局和发展中,我们始终注意把握技术发展趋势和产业发展趋势,努力引领这一趋势。"8月25日,在百度脑语言知识技术峰会上,百度首席技术官王海峰解释了百度语言知识技术的发展历程和最新成果。


在他看来,语言和知识技术是人工智能认知能力的核心。以语言和知识为研究对象,使机器能够像人类一样掌握知识和理解语言,对于人工智能的发展至关重要。"经过近十年的发展,百度已经建立了一个完整的语言和知识技术布局,包括知识图表、语言理解和生成技术,以及上述技术支持的应用系统,包括智能搜索、机器翻译、对话系统、智能写作、深入问答等等。


据报道,在过去的十年里,百度在大脑语言、知识和技术方面取得了丰硕的成果,赢得了20多个奖项,包括国家科学技术进步奖,赢得了30多个国际竞赛冠军,发表了300多篇学术论文,申请了2000多项专利。在技术不断突破创新的同时,它还探索产品创新,同时向开发商和合作伙伴出口领先技术,以提高各行业的智力水平。


王海峰说:"知识图是机器认识世界的基础。机器认知能力的突破越来越依赖于知识和大规模知识图的运用。百度创造了世界上最大的多源异构知识图,拥有超过50亿个实体和5500亿个事实,并且在不断的进化和更新,已经应用于各种行业,每天通话超过400亿次。





值得注意的是,对于不同的应用场景和知识形式,百度已经建立了多种知识图形类型,不仅包括基本实体知识图,还包括行业知识图、事件图、注意图等,以及语音、视频、图片多模式知识图的融合,在此基础上,百度创建了一套知识图构建方法,包括无标记大数据开放知识挖掘技术、知识系统自扩展知识图自学习技术以及整合多源异构数据的知识完成与集成技术。


此外,百度还开发了一种知识增强的跨模态深度语义理解方法,它利用知识关联跨模态信息,用语言描述不同模态信息的语义,使机器能够实现对图像、语言、语音和语言的综合理解,从"看到"到"理解",从"理解"到"理解"。然而,综合了场景图知识的跨模态语义理解预训练技术大大提高了跨模态推理的能力。


王海峰指出,通过知识图、语言理解和跨模式语义理解,智能搜索帮助用户更有效、准确和方便地获取知识和信息。百度提出了知识图驱动的对话控制技术,以及第一个基于隐藏空间的大规模开放领域对话模型柏拉图,并推出了智能对话定制和服务平台单元,以帮助开发者高效构建智能对话系统,实现大规模应用。百度翻译支持200多种语言,每天响应超过1000亿字符的翻译请求,支持超过40万个第三方应用程序。在技术上,提出了多Agent联合学习、基于语义单元的同声传译模型、稀缺语言分组混合训练算法等。


此外,百度语言和知识技术的成就也不断通过开放源码开放平台输出,在互联网、金融、医疗、教育等多个领域发挥作用,提高工业智能水平,这是百度在过去十年里语言和知识技术不断进步的最好证明。


最后,王海峰期待着语言和知识技术的进一步发展。"仍然有许多技术问题有待研究和解决,如复杂的知识表示和快速构建技术,知识与深度学习的进一步融合,感知和认知跨模态语义理解技术的深入融合,模型的可解释性和鲁棒性等。但对于未来,百度充满信心,愿意继续探索机器‘掌握知识,懂语言,有智慧’。


责任编辑:iiihyt
分享到:
0
【慎重声明】凡本站未注明来源为"电商在线"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!
网站简介 免责声明 投诉建议 广告服务 网站地图 sitemap