您的位置首页  科技生活  人工智能

人工智能的发展历程与未来方向

人工智能的发展历程与未来方向

  人工智能(Artificial Intelligence,简称AI)的历史可以追溯到物理学家薛定谔于1944年出版的科普书《生命是什么活细胞的物理学观》。这本书希望从物理学和化学原则的角度来解释生命现象,它开启了分子生物学的大门,也在人工智能的早期发展中起到了重要作用。在1956年马文明斯基组织的达特茅斯会议里,麦卡锡首次提出了“人工智能”的概念,这被公认为是AI诞生的标志。在这次会议中,大家一致认为“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟”。

  自此之后,人工智能经历了三次热潮,人们对人工智能的认识也在逐步完善。第一次热潮源于连接主义的进展,里程碑式的成果是20世纪中期McCulloch和Pitts发现了神经元“兴奋”和“抑制”的工作方式以及1956年Rosenblatt提出的“感知机”模型。同时,1959年Solomonoff有关文法归纳的研究和1965年Samuel将分段划分引入对符号域的数据处理,也促进了符号主义的发展。人工智能在连接主义、符号主义以及行为主义等领域的成功,让当时的科学家们兴奋不已,并乐观地估计10年后便有可能制造出像人一样有智能的机器。然而,明斯基出版的《感知机》一书指出,当时的人工智能研究甚至不能解决一些简单的二分类问题,而主义的进展也遭遇了瓶颈,使得人工智能进入了第一个寒冬。

  1986年,连接主义学派找到了新的神经网络训练方法,即利用反向传播技术来优化神经网络的参数,二分类问题因此得以解决。符号主义也提出了“如果则”的专家系统,于是,人工智能再次掀起新一轮热潮。但好景不长,科学家们发现“如果则”的规则容易出现组合爆炸问题,即无法穷尽可能的规则。而1995年提出的统计学习理论,既有严密理论又有完美算法支持,让理论方面存在不足的连接主义再次淡出视野,人工智能也因此成为以统计学习和机器学习为主导的研究。

  2012年,在计算机视觉领域一个关于大规模图像检索的比赛中,深度学习研究的领袖级人物Geffrey Hinton带领团队成员Alex Krizhevsky和Ilya Sutskever提出了一种新型的深层网络模型AlexNet,显著地将识别性能提高了近10个百分点。而这个提升之前曾被以为需要20年的时间,这让科研人员开始重新关注神经网络尤其是深层网络的研究。

  通过近六年的努力,深度学习在计算机视觉、图像处理、自然语言处理、语音识别等众多领域都取得了耀眼的成绩。其成功的原因主要有三个:

  第一,模型本身的变化。与传统的神经网络不同,深度学习对网络采用了逐层做特征学习的方式,并在每一层中采用了不同的角度加以处理,使得网络在学习能力或特征工程上得到了极大的加强。

  第二,数据规模的显著提升。在2012年前,没有超大规模的数据可用来训练网络,这使得之前网络即使能做深,也达不到传统统计学习和机器学习的性能。而2012年后,这一问题得到了解决。一方面是采集设备的成本下降和来源变得丰富,数据的收集能力明显增强;另一方面是人工标注对大量有效数据集的形成起到了帮助。据媒体报道,目前国内至少有近千家标注公司和工厂、共20余万名以上的数据标注员在从事人工标注的工作。另外,2014年以后,通过对抗生成式网络来生成伪数据的策略也大幅度减轻了大数据的需求问题。

  第三,可并行计算的GPU显卡带来的算力提升也功不可没。自从Geoffrey Hinton等提出的AlexNet深度网络首次采用双GPU来处理数据后,现有的深度学习模型都是基于多GPU计算完成的。

  深度学习也带来了产业界的同化。由于其模型采用了“输入为问题、输出为目标,中间的规律完全通过深度模型来学习”的“端到端”设计理念,各行业特有的规律都能通过收集大数据集,并通过模型学习来完成。因此,这种端到端的操作方式,加上现阶段源码共享的流行,让原来领域差异明显的产业界如电信、金融、安防等都投身到人工智能的研发与应用中。不仅如此,在围棋上AlphaGo、AlphaZero的所向披靡、战无不胜以及对300年围棋谱的新认识,还有波士顿机器人团队的硕果累累,都让人感觉人工智能近在眼前。

  从国家层面看,我国对人工智能给予了前所未有的支持力度。2017年7月,国务院发布了《新一代人工智能发展规划》。规划预计到2020年,我国人工智能核心产业规模将超过1500亿元,带动相关产业规模超过1万亿元;到2030年,人工智能核心产业规模将超过1万亿元,带动相关产业规模超过10万亿元。而在本轮热潮中,我们也看到了大量与人工智能相关的公司的创建,其中不乏有进入中国独角兽企业榜单的。资本对人工智能的关注也近乎狂热,甚至行内有些投资机构在对人工智能相关公司进行估值时,会以在人工智能领域会议论文发表的数量为参考,这又直接导致了AI相关的公司愿意花重金去吸引AI方向上有良好论文发表纪录的优秀人才。

  首先,我们得肯定,随着国内研究能力的提高,国内科研机构在期刊或会议上发表论文的数量较以往已经上了好几个台阶,目前我国论文的发表数排全球第二便是很好的明证。然而,在原创性上,我国的科研创新还没有占据国际主导地位,比如论文的引用数在国际上未排进前十名,说明论文的影响力不够;在人工智能必需的硬件环境上,我们仍严重依赖于目前还无法国产化的GPU显卡;在软件平台上,我们仍依赖于PyTorch、Tensorflow等国外软件;在深度学习的核心算法上,国内提供的关键算法相对较少,多是在国外团队设计的相关算法上的小修小改。

  其次,对论文的过度看重,导致科研院校和行业偏好选择“短平快、易产出”的方向进行研究,而对可能需要35年甚至更远的510年才能有产出的研究方向不甚感冒,这从论文的引用率上就能看出一斑。而资本的进场,又容易让原本可能可以按时间节点稳步发展的企业产生加速扩张的心态,这多少会影响其对原创性研究的追求。如果这些企业缺乏专业的管理和财务团队,则很有可能会导致投资方期望过高而实际产出偏低的结果。如果对此不重视,说不定第三波人工智能的热潮会因为“AI经济泡沫”的破灭跌回低谷。一旦出现这一现象,很有可能会有较二波寒冬更长的寒冬期。这些都是值得我们警惕的问题。事实上,当前人工智能在产业界中取得明显进展的,主要是与预测相关的智能应用,但从更广义的智能角度来看,人类仍有较多同智能相关的问题尚待解决:

  第一,深度学习通过扩大模型来获得预测能力的同时,也由于模型参数过多导致可解释性变差,不太容易提取出可解释的结论或规则。第二,常识智能尚无明确的解决方案。如人走路不会识别路面的精细细节但却可以快速行走,出门时发现下雨后又返回家中拿伞,这些都属于常识智能。然而,目前对于常识智能,仍缺少可以拿来分析的有效理论和模型。第三,小样本问题。在很多情况下,样本的收集是困难或昂贵的,甚至人工标注也不可行,如全基因组的测序、高性能计算芯片的参数检测等。此时,依赖需要大数据训练的深度学习就很难获得好的性能。第四,硬件依赖问题。目前的深度学习严重依赖于GPU显卡的并行能力,然而,并非所有环境都能提供具有高效运算的硬件。因此,有必要设计更有效、不依赖于GPU的模型和方法。第五,情感智能的研究。尽管在情感方面存在不少的研究,但多数研究是基于情感的预测来展开的,对真实情感的模拟还远没达到人类会难以区分的地步。结果就是,现有的服务机器人还难以形成真正的情感。

  那么,我们有没有可能借助学科的进展来促进人工智能的发展呢?举例来说,脑科学对人脑的研究,尽管在分子级别以及神经细胞群的活动较以往已经有了更深入的认识,但受限于探测器的时间和空间分辨率,目前对大脑的精细和全局分析仍有较大的发展空间。同时,遗传学虽然对基因编码机制进行了广泛研究,可以对智能体的基因进行全序测量,但是基因在非编码区形成的调控机制仍不是完全明了的。此外,在未来智能社会中,假定智能体具备了真正的智能,可以作为群体融入到人类社会,那么就需要有社会学关于群体行为的研究成果做参考和支撑,但是,目前还缺少可资量化的社会学行为分析方法。

  总体来看,尽管其他学科对智能也有不少的研究,但并不是尽善尽美。我们需要取长补短,并结合人工智能学科的研究,才有可能对智能研究进行进一步完善,避免人工智能进入下一个寒冬。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
  • 标签:人工智能发展史论文
  • 编辑:刘卓
  • 相关文章
TAGS标签更多>>