您的位置首页  科技生活  人工智能

让人工智能具有“情商”丨双语阅读

让人工智能具有“情商”丨双语阅读

  在电脑执行数据处理等“后台”功能的时代,缺乏情商问题不太大。但随着电脑承担数字助理和驾驶等“前台”职责,问题就大了。

  拉纳•埃尔•卡利乌比(Rana el Kaliouby)在职业生涯中一直在应对一项日益重要的挑战:计算机不理解人类。她在快速发展的人机互动(HRI)领域工作已有20多年,先是作为剑桥大学(University of Cambridge)和麻省理工学院(MIT)的学者,现在是波士顿人工智能初创企业Affectiva的联合创始人和首席执行官。

  “当今的科技拥有很高的认知智商,但没有情商,”她在一次电话采访中表示,“我们面临一场同理心危机。我们需要在更大程度上以人为中心来重新设计技术。”

  在电脑只执行数据处理等“后台”功能的时代,问题并不太大。但随着电脑承担更多“前台”职责(例如数字助理和驾驶机器人),这引发了更重大的担忧。电脑日益在很多不同的环境与随机的人类直接互动。

  这种需求促使情感人工智能(Emotional AI)快速兴起。这种人工智能旨在通过改善电脑与人类的互动方式,建立对电脑工作方式的信任。然而,一些研究人员已提出担忧:如果企业为了操纵消费者而滥用情感人工智能,那就可能会适得其反,进一步破坏人们对科技的信任。

  从本质上说,情感人工智能试图通过读取面部表情、扫描眼球运动、分析音量和探测电子邮件流露出的情绪,对人类情感进行分类和做出回应。它已应用于多个行业,从游戏到广告,从呼叫中心到保险。

  日本IT集团富士通(Fujitsu)正将“视线”传感器置入商店模型,由其向近旁的销售人员发送推送通知,就如何为客户提供最佳个性化服务提供建议。

  埃森哲(Accenture)最近一份有关这类情感人工智能用途的报告提出,这项技术有望帮助公司深化与消费者的互动。但该报告警告称,使用情感数据存在内在风险,因为它牵扯到极端水平的亲密关系,对许多消费者来说是无形的,可能模棱两可的,而且可能导致难以纠正的错误。

  但她坚称,这项技术只有在用户完全知情且同意的情况下才能使用,用户应该永远拥有选择退出的权利。她写道:“正因如此,公众有必要了解这项技术是什么、如何收集数据以及在哪里收集数据,并在如何使用数据方面拥有发言权。”

  情感人工智能的主要危险或许是双重的:要么效果不好,导致有害的结果,要么效果太好,为滥用打开大门。使用这项技术的所有人,以及监管这项技术的所有人,都必须确保它恰到好处地为用户效力。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
  • 标签:人工智能英文中文
  • 编辑:刘卓
  • 相关文章
TAGS标签更多>>