<霍金再发:人工智能可能通过核战争或生物战争摧毁人类,  本月8日,霍金向英国《报》表示,人类必须建立有效机制尽早识别所在,防止新科技(人工智能)对人类带来的进一步上升科技资讯网
您的位置首页  科技生活

霍金再发:人工智能可能通过核战争或生物战争摧毁人类

  本月8日,霍金向英国《报》表示,人类必须建立有效机制尽早识别所在,防止新科技(人工智能)对人类带来的进一步上升。

  自从人类文明形成以来,来自能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和去控制未来可能出现的。

  霍金还就如何应对人工智能的给出了自己的。霍金认为,人类可以组成某种形式的“世界”来防范人工智能可能带来的,但他同时认为“世界”本身也有问题,因为这样一个可能会施行。

  实际上,霍金是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。AI甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。

  但霍金也一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类。霍金表示:

  一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。

  近年来,随着人工智能技术蓬勃发展,其潜在的受到越来越多科学家的关注。

  我认为改善全球治理很有必要,不仅可应对AI带来的挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够下去。

  对比霍金等人“人工智能将人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:

  AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
友荐云推荐