首页 理论教育 人工智能的历史发展简介

人工智能的历史发展简介

时间:2023-07-02 理论教育 版权反馈
【摘要】:谈及现代的人工智能发展历史,通常都会提到英国科学家艾伦·麦席森·图灵。这之后,人工智能就进入了发展的黄金期。还有其他一些事件,导致很多机构逐渐停止了对人工智能研究的经费资助。从1974年到1980年就成了人工智能发展的第一个低谷期。

人工智能的历史发展简介

谈及现代的人工智能发展历史,通常都会提到英国科学家艾伦·麦席森·图灵(A.M.Turing)。他被称为计算机科学之父,也有人称其为人工智能之父。在1950年,图灵发表了论文《计算机与智能》,论文开始就提出了“机器能思考吗”这个问题,然后提出了著名的“图灵测试”,即让一位测试者待在一个隔离的房间,通过电传设备对人类和机器提问,来判断哪一个是人哪一个是机器,如图1.1所示。图灵在论文中还示范了一些用于提问的问题,并指出如果机器能够非常好地模仿人类回答问题,以至测试者在相当长的时间里误以为它不是机器,那么机器就可以被认为是能够思考的。

图1.1 图灵测试

直到现在,图灵测试依然是判断机器是否具备智能的方法之一,2018年谷歌(Google)推出人工智能Duplex时就声称Duplex已经部分通过图灵测试,以至于引发了一些人的担忧,随后谷歌也声明该系统会采取措施让人类能识别其身份。针对图灵测试还有一个有名的质疑实验——1980年提出的中文屋实验:让一个只懂英语的人待在一个有中文翻译书的房间里,房间外的人通过用中文卡片来提问,屋内的人则借助中文翻译书来翻译文字并用中文以卡片的形式回复,这个过程就会让房间外的人认为屋内的人是懂中文的。这个实验想表明即便通过了图灵测试,机器也不见得有智能。当然,这个实验用于否定图灵测试还有些牵强,存在许多争议,比如图灵测试是用于机器智能的判定,而中文屋实验则表明机器智能并不能表明机器具备理解能力,不能进行独立思考。这里其实是提出了人工智能到底是希望设计一个外在行为像人的机器还是真正理解智能的机器。

真正标志着人工智能诞生的,是1956年8月在美国达特茅斯学院召开的一次学术会议,会议的主要参与者有10个人,对什么是智能以及如何通过计算来实现智能进行了广泛而深入的讨论。这之后,人工智能就进入了发展的黄金期。其中,麦卡锡和明斯基两人共同创建了世界上第一个人工智能实验室——麻省理工学院人工智能实验室(MIT AI Lab)。很多人工智能实验室也相继建立,一些成就也相应涌现出来。

1956年,达特茅斯会议参会者之一,IBM工程师亚瑟·塞缪尔(Arthur Samuel)编写了一套西洋跳棋程序,该程序1962年战胜了美国康涅狄格州的跳棋冠军。另两位会议的参与者艾伦·纽威尔(Alan Newell)和赫伯特·西蒙(Herbert Simon)研发的“逻辑理论家”(Logic Theorist)在1956年证明了《数学原理》一书中全部52条定理中的38条。他们也是人工智能符号主义的代表人物。符号主义(symbolism),也称为逻辑主义(logicism)或心理学派(psychologism),提出了物理符号系统假设,基于逻辑推理的方法来模拟人的智能行为,对符号进行操作,认为只要在符号计算上实现了相应的功能,那么现实世界就实现了对应的功能。

1957年,弗兰克·罗森布拉特(Frank Rosenblatt)发明了感知机(perceptron)。它是罗森布拉特受到生物神经元的启发,通过模拟人脑的方式建模而发明的,成为人工神经网络(ANN,artificial neural network)中神经元的最早模型。1958年,罗森布拉特用实验方式演示了用标识向左和向右的50组图片训练感知机,结果是在没有任何人工干预的情况下,感知机能够判定出图片标识是向左还是向右。《纽约时报》于1958年7月8日还报道了这一研究成果,题目为“海军新设备在做中学”(New navy device learns by doing),报道中称“感知机将能够识别出人,并能叫出他们的名字,而且还能把人们演讲的内容即时地翻译成另一种语言或记录下来”。感知机属于人工智能中的连接主义(connectionism)。连接主义也称为仿生学派(bionicsism)或生理学派(physiologism),主要是指模拟生物神经元和大脑的行为进行学习算法

1966年,麻省理工学院人工智能实验室推出了第一个真正意义上的聊天程序Eliza,一些心理学家和医生还想请它为人进行心理治疗。不过当时的自然语言处理技术是远不及今天的,Eliza其实只是通过在对方的语言中进行关键词扫描,然后为匹配到的某些关键词配上合适的对应词,造一个句子进行对话。遇到陌生的话,Eliza就采用通用的回答,它并没有对句子进行理解,只是编排得很巧妙。

这些,在当时引来了人工智能发展的第一个高潮,科学家也开始乐观起来,认为很快人工智能将会完成人可以做到的一切工作。然而随着研究向前推进,由于计算机硬件的限制,加上没有大量的数据供机器学习,人工智能的发展遇到了瓶颈。人们看到许多成果只是机房里的游戏,远不能解决实际问题。明斯基(也是罗森布拉特的同事兼高中同学)和另一位教授合作,在1969年出版了《感知机:计算几何学》一书。书中详细论述了感知机和神经网络的局限性,并指出连基本的异或问题(也称为线性不可分问题)都解决不了,直接导致了神经网络研究的消沉。还有其他一些事件,导致很多机构逐渐停止了对人工智能研究的经费资助。从1974年到1980年就成了人工智能发展的第一个低谷期。

在20世纪70年代,一些专家系统的应用程序开始出现。它实际上就是一套计算机程序,聚焦于某个专业领域,将人类专家的知识和经验变成数据形式录入后,可以模拟人类专家进行该领域的知识解答,人工智能开始从理论研究走向实际应用。比如,1972年由斯坦福大学研制的MYCIN系统,可以用于帮助医生对住院的血液感染者进行诊断和选用抗生素类药物进行治疗。1978年卡内基-梅隆大学开发的R1程序,也称为XCON(eXpert CONfigurer),基于产生式系统,能按照用户需求,帮助美国数字设备公司(DEC)为VAX型计算机系统自动选择组件。它通过减少技师的出错概率、提高组装效率和提升客户满意度,每年为DEC节省约2500万美元。XCON的成功引得当时众多公司效仿。我国在1978年也把“智能模拟”作为国家科学技术发展规划的主要研究课题,并于1981年成立了中国人工智能学会。(www.xing528.com)

进入20世纪80年代后,计算机的性能得到了大幅提高,基于复杂规则的专家系统可以流畅运行。随着专家系统的成功,人工智能发展迎来了第二次热潮。在当时,制定专家系统运行规则的知识工程师就如同今天的数据科学家一样,成为炙手可热的职业。

与此同时,连接主义也有了新的发展。前面提到的阻碍感知机发展的异或问题,也得到了解决。1982年,霍普菲尔德(Hopfield)提出了一种新型的神经网络。它以一种全新的方式进行学习和信息处理,可以解决一大类模式识别问题,还可以给出一类组合优化问题的解。这种神经网络后来就被称为Hopfield神经网络(HNN)。1986年,反向传播(BP,back propagation)算法被提出,较好地解决了多层感知机自我学习中的一些问题,也使得多层人工神经网络的结构成为一种固定模式,人工神经网络也进入了兴盛期。20世纪80年代后期到90年代早期,基于人工神经网络的自动驾驶技术、手写数字识别技术也得到了应用。其中,杨乐昆(Yann LeCun)等人于1989年发表论文Backpropagation Applied to Hand written Zip Code Recognition中实现了LeNet的雏形——卷积神经网络(CNN convolutional neural networks)。

另外,符号主义在这一期间引入了统计学思路。比如,1986年,昆兰(Quinlan)提出了符号主义的一种重要算法——决策树。在现在的机器学习和数据挖掘中,也依然会经常采用这种算法。隐马尔可夫模型(HMM,hidden Markov model)的发展使得语音识别技术也有了较大的突破。

然而,好景不长,首先是20世纪80年代后期,专家系统的缺点开始体现:高昂的维护费用、难以升级、难以使用,以及实用性仅局限于特定场景等缺点开始凸显。1987年,AI的硬件市场需求由于受到Apple和IBM台式机的冲击而大幅下降,AI领域再次遭遇财政危机。1991年,BP算法被指出存在梯度消失问题,给当时人工神经网络的发展浇了一瓢冷水。1987年至1993年被认为是人工智能的第二次低谷期。

这期间,一些人受到心理学流派的影响,认为行为是有机体用以适应环境变化的各种身体反应的组合,基于控制论和感知行动的控制系统,开始研究偏向于应用和模拟智能行为的智能控制和智能机器人系统,形成了行为主义(actionism)流派(也称为进化主义(evolutionism)或控制论学派(cyberneticsism))。控制论将神经系统、信息理论、控制理论和计算机技术联系了起来,这一学派的代表是布鲁克斯(R.A.Brooks)。他提出了用一群可靠性不太高的小机器人来代替可靠性高但昂贵的大型机器人来完成巡航任务的想法。行为主义的出现使人工智能技术形成了三足鼎立的局面。

到了20世纪90年代中期,计算机性能的提高和互联网技术的快速发展,加快了人工智能技术的发展,人工智能迎来了第三次高潮。1997年,IBM的超级计算机“深蓝”,击败了国际象棋世界冠军卡斯帕罗夫(Kasparov)引起了世界的关注。于1998年由杨乐昆等人提出的LeNet-5被当时美国大多数银行用来识别支票上面的手写数字。LeNet-5也是早期卷积神经网络中最具代表性的系统之一。

这期间,各种浅层的机器学习算法被提出或得到发展,使得机器能自主从数据特征中学习规律,人工智能技术又受到关注。但是在20世纪90年代到21世纪很长一段时间内,以支持向量机(SVM,support vector machine)为首的浅层机器学习算法一直占据着人工智能技术研究的主导。2006年,多伦多大学的教授杰弗里·辛顿(Geoffrey Hinton)提出了深度学习(deep learning)的概念,并迅速取代SVM成为研究热点

2007年,斯坦福大学华裔女科学家李飞飞发起了ImageNet计算机视觉系统识别项目,建立了庞大的图像识别数据库——包含1400多万张图片的数据和2万多个类别。自2010年开始,ImageNet大规模视觉识别比赛(ILSVRC,ImageNet Large Scale Visual Recognition Challenge)连续举办了8年,对深度学习的发展起到了极大的推动作用。在这一期间,诞生了许多优秀的深度学习模型结构,加速了人工智能的商业应用和产业化。2017年之后,Kaggle接手了ImageNet的视觉识别比赛项目。

深度学习不仅在图像处理领域取得了巨大成功,在其他方面也同样大放异彩。2016年3月,谷歌Deep Mind团队开发的AlphaGo围棋机器人战胜了世界围棋冠军李世石,成为人工智能领域最受关注的成就之一。AlphaGo主要使用了蒙特卡罗树搜索和融合了深度学习的强化学习技术。蒙特卡罗树搜索属于符号主义,深度学习属于连接主义,而强化学习则属于行为主义。可见,人工智能的发展也必然会带来技术之间的相互影响、相互融合和相互促进。

现在人工智能技术已经得到了大量关注和追捧,国内外众多公司都投入人工智能的研究之中,无论是与人工智能相关的硬件、基础算法还是通用框架,都得到了空前的发展,人工智能技术也被认为是引领新一轮科技革命的重要组成部分。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈