您的位置  科技资讯  新闻

AI十二谈 | 清华大学黄民烈:智能语音助手很难替代人,机器也要有价值观

近日,搜狐科技全新直播栏目《AI十二谈》首期圆满举行。作为受邀嘉宾,清华大学计算机系长聘副教授、智能技术与系统实验室副主任黄民烈在分享中表示,目前在很多情况下,语音并不是最自然、最方便的方式,这也是智能语音助手在交互上面临的困难。

黄民烈认为,在过去的十年里,智能语音助手虽然在产品和技术上取得比较大的进展,但也面临很大瓶颈——对于能处理的东西能够处理得很好,对于不太能处理的东西就会犯非常愚蠢和傻的错误。

他提到,智能语音助手会设很多技能、很多命令,用户期望很高,但是有时候会超过它的领域外后,智能助手就会变得不太“灵”,导致用户心理落差非常大。

同时,智能语音助手也面临自然语言理解上最难的一些问题,比如算法的鲁棒性、领域外的泛化能力、对用户真实意图的理解等。“这需要在技术和产品上做很好的设计,而这些挑战随着技术的迭代、产品的发展,会变得越来越多。”黄民烈表示。

除了这些瓶颈和技术难题,智能语音助手也有着唤醒失败的不佳体验。黄民烈认为,现在很多语音助手都依赖特定的关键词做唤醒,没有带出相应的关键词,就无法作出响应。如果不依赖关键词,在研究上就需要探索在多方对话中,随时、自然地插入第三方对话,时机和内容都会影响对话质量。

同时,这背后还涉及到算法的鲁棒性问题。黄民烈进一步分析称,同样的场景、同样的声音、同样的命令,可能经过语音识别出来之后,会有一些小的错误或者小的扰动,再经过算法去做语义分析,分析意图的时候,可能就跟预想的不一致,就没有办法作出正确的响应。

清华大学计算机系长聘副教授黄民烈

智能语音助手有时也会答非所问,或者给出莫名其妙的答案。黄民烈解释称,这有两方面的原因。一是问题解析出错,比如语音识别或者是分析结构化的对话意图时有误。二是问题和答案的相关性和匹配度不够高,这背后涉及到很多算法,这些算法综合决定到底问题回答的好不好、质量高不高。

在黄民烈看来,可以通过算法去显著提高对意图的理解,这在对话系统里面,在智能助手里面是非常根本的问题,将对用户体验、产品性能都会有比较大的提升。

黄民烈认为,人和机器之间应该是协作关系,这是智能语音助手最理想的境界。“我不太相信智能助理能够替代人类助手,把所有的事情都交给智能助理去做还是不太靠谱。”黄民烈表示,“未来一定是人和机器和谐相处,人机共融,智能助手的定位不是替代人,而是人机协作共同完成目标。”

对于智能语音助手可能存在的隐私和安全问题,黄民烈教授认为,从技术上来讲,最难的是它得知道什么样的信息属于隐私,是安全的,什么样的信息能说,什么样的信息不能说,这个才是最根本的地方,可能要给它一些规范。

“人在讲任何话的时候可能知道潜在的后果是什么,会带来什么样的影响,但机器人它不知道。这里面不仅有常识,更有价值观的问题。”黄民烈说,这个方向还有非常多值得研究的问题。

那么,该如何保证智能语音助手既保证可以满足用户需求,同时又能保护个人信息?黄民烈认为,这里面有两个关键点。第一是个性化。同样一句话,不同的用户还有不同的情境下是不一样的,而个性化的本质就是把助手的能力跟个人信息、偏好、爱好做匹配,这还需要做大量的研究工作。

另外,助手应该具有Life-Long Learning(持续学习)的能力。他表示,现在基本是把助手训练好,放到线上去,定期更新,这也是一种形式的持续学习,但真正好的智能助手是在跟人交互的过程中能够自动地去积累知识,能够听从人类指令,能够不断让它的能力有跃升。

“如果能从人的反馈里持续学习的话,助手能力就见涨,但这就面临着到底教它什么的问题。”黄民烈说,这就像教小孩一样,不能把恶的东西教给它,这就涉及到很多价值判断,得知道什么东西学,什么东西不能学。

“变坏”的机器人已出现过。微软的AI聊天机器人Tay就曾因辱骂网友以及发表种族歧视言论,仅仅上线一天就被迫下线。这背后则是少数用户利用了Tay的一个漏洞,从而导致Tay发布了不当推文。

黄民烈认为,AI的伦理和道德问题,其实就是要给机器人一个价值观,这个价值观一定要正确的。“但这个价值观是什么非常复杂,跟文化、地域等各种各样的东西都有关系,还需要继续探索。”

养母生母 http://www.xinzhiliao.com/zx/jiankang/18254.html
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
  • 标签:独秀论文网,樱桃不能掉,恶魔养殖者txt,
  • 编辑:刘卓
  • 相关文章