首页 理论教育 心灵的未来:人工心灵与硅意识

心灵的未来:人工心灵与硅意识

时间:2023-11-07 理论教育 版权反馈
【摘要】:它无法理解这些行为的意义,而事实上,沃森完全不知道自己取得了胜利。在过去的50年里,计算机的能力每两年就翻一番,这称为摩尔定律,据此有人说,机器最终获得与人类智慧相匹敌的自我意识只是时间问题。我们怎样应对机器人意识可能会决定人类物种的未来。1974年,美国和英国政府大幅缩减了资助,人工智能遭受了沉重的打击。到1985年,人工智能接受的资助达到10亿美元,好几亿美元花在了像“智能卡车”这样的项目上。

心灵的未来:人工心灵与硅意识

不,我对于开发强力大脑并不感兴趣。我要追寻的仅仅是普通的大脑,一种有些像美国电话电报公司总裁一样的大脑。

——艾伦·图灵(Alan Truing)

2011年2月,历史诞生了。

IBM一台名为沃森(Watson)的电脑做到了许多评论家都认为不可能的事:它在电视益智节目《危险来了!》(Jeopardy)中战胜了两位对手。上百万的观众坐在电视机前,目不转睛地看着沃森有条不紊地在全国电视台上击败对手,获得了100万美元的奖金。

IBM拿出全部本领制造出一台拥有强大运算能力的计算机——沃森。它的运算速率达到惊人的每秒500 GB(相当于每秒100万部书),拥有16TB的内存,其中存储了2亿页材料,包括维基百科中的所有知识。沃森可以在电视直播中直接调用这些海洋般的信息。

沃森正是最新一代“专家系统”,一种利用形式逻辑调用大量专业信息的软件程序。(当你在电话上和一台机器讲话时,机器会给你一个选择菜单,这就是一种原始的专家系统。)专家系统会持续发展,会使我们的生活更方便快捷。

例如,工程师们正在制造一种“机器人医生”,将来会出现在你的腕表上或墙幕上,可以提供准确率达99%的医学建议,而且几乎免费。你可以告诉它你的症状,它会从世界领先的医疗机构中调用数据,提供最新的科学信息。这将大大减少看医生的次数,避免诊断错误造成的虚惊和付出高昂的费用,而且会使你与医生的定期谈话变得毫不费力。

最后我们还会拥有机器人律师,它们可以回答所有普通的法律问题;还有机器人秘书,可以规划假期、旅行晚餐。(当然,对于一些需要职业建议的特殊服务,你还是需要看真正的医生,咨询真正的律师。但对于一般日常的建议来说,这些程序就足够了。)

此外,科学家还制造了“聊天机器人”,可以模仿普通对话。普通人可能掌握上万个词汇。阅读一份报纸需要大约2000多个单词,但一场随意的交谈通常只需要几百个词。机器人程序可以实现用这些数量有限的单词进行交谈(只要谈话的内容限制在某些清晰明确的话题上)。

沃森赢得那场比赛不久,一些博学家就开始捶胸顿足,担心将来有一天机器人会接管我们的一切。肯·詹宁斯(Ken Jennings)是被沃森打败的选手之一,他对媒体说:“就我看来,我欢迎我们的新主人——计算机的到来。”博学家们的问题是,如果沃森能够在一场人机比赛中战胜经验丰富的益智节目选手,那么我们其他人还有什么机会与机器相抗衡呢?詹宁斯半开玩笑地说:“布拉德(Brad,另外一个参赛选手)和我都是被新一代‘思维’机器淘汰的知识产业工人。”

不过这些评论家没有提到的是,你无法走上前去对沃森的胜利表示祝贺。你不能拍拍它的后背以示赞赏,也不能跟它举杯相庆。它无法理解这些行为的意义,而事实上,沃森完全不知道自己取得了胜利。把新闻媒体的炒作式报道放在一边,事实是沃森是一台十分精密的运算机器,能够以几十亿倍于人脑的速度进行运算(或寻找数据档案),但它缺少自我意识,也没有常识

一方面,人工智能取得了令人惊叹的成绩,特别是在原始计算能力方面。如果来自1900年的人看到现在的计算机,他们会认为这是奇迹。但在制造能够自主思维的机器(即没有背后主宰的、没有按钮控制者的、没有遥控者的真正的自动机器)方面,进展却是痛苦而缓慢的。机器人完全不知道自己是机器人。

在过去的50年里,计算机的能力每两年就翻一番,这称为摩尔定律,据此有人说,机器最终获得与人类智慧相匹敌的自我意识只是时间问题。没有人知道这什么时候会发生,但人类应该做好准备,迎接机器意识走出实验室,走进真实世界的那一刻。我们怎样应对机器人意识可能会决定人类物种的未来。

很难预测人工智能的命运,因为它只经历了三个繁荣-萧条周期。回到20世纪50年代,似乎机器女佣和机器管家不久就会到来。能够下棋和解决代数问题的机器已经制造出来,机器人手臂可以识别并抓起砖块。斯坦福大学制造了一个叫沙基(Shakey)的机器人,它的基本构造是一台安装在轮子上带照相机的计算机,能够自己在房间内活动,避开障碍物。

科学杂志上很快出现了令人兴奋的文章,宣称机器人伴侣会很快到来。其中一些预测过于保守了。1949年,《大众机械(Popular Mechanics)说:“将来计算机的重量不会超过1.5吨。”不过有一些却极度乐观,认为机器人的时代为期不远。沙基有一天会成为打扫地毯、帮你开门的机器女佣或管家。像《2001太空遨游》(2001:A Space Odyssey)这样的电影使我们相信,机器人很快就会驾着我们的火箭飞船奔向木星,而且可以与我们的宇航员攀谈。1965年,人工智能的奠基人之一赫伯特·西蒙(Herbert Simon)博士直截了当地说:“在20年内,机器就能完成所有人类可以做的事。”两年后,另一位人工智能之父马文·明斯基(Marvin Minsky)博士说道:“用一代人的时间……建立‘人工智能’的问题就会大体得到解决。”

但这些漫无边际的乐观主义在20世纪70年代坍塌了。下棋的机器只能下棋,不会其他事情。机械手臂能够抓起砖块,但不能抓起其他东西。它们都是只会一种技能的小马驹。最先进的机器人花上几个小时只能从屋子的一边走到另一边。把沙基放到一个陌生的环境中,它就会迷路。而且科学家们还看不到理解意识的希望。1974年,美国和英国政府大幅缩减了资助,人工智能遭受了沉重的打击。

但是随着计算机能力在20世纪80年代的稳步提高,人工智能领域又出现了新一轮“淘金热”,这主要受益于五角大楼决策者们期望把机器人投入到战场的刺激。到1985年,人工智能接受的资助达到10亿美元,好几亿美元花在了像“智能卡车”这样的项目上。智能卡车是一种智慧的、自动的卡车,能够深入敌人防线,自动进行侦查,执行任务(如解救俘虏),然后回到友军境内。不幸的是,智能卡车唯一做到的一件事是迷路。这些昂贵项目的明显失败,使人工智能在20世纪90年代进入又一个冬天。

保罗·亚伯拉罕斯(Paul Abrahams)谈到自己在麻省理工学院的学生时代时说:“就好像有一群人在提议建一座通向月球的高塔。每年,他们都会自豪地指出这座高塔已经比去年高了很多。唯一的问题是,月球并没有离我们更近。”

但是现在,随着计算机能力的持续发展,一场新的人工智能复兴又开始了,虽然缓慢,但已经取得了实质性进步。1997年,IBM的深蓝计算机击败了世界国际象棋冠军加里·卡斯帕罗夫(Garry Kasparov)。2005年,来自斯坦福大学的一辆机器人汽车赢得了DARPA(美国防御高级研究计划局)大挑战的无人驾驶汽车比赛的头名。人工智能越过了一个又一个里程碑。

问题是:第三次尝试会带来好运吗?

科学家们现在意识到,他们大大低估了这个问题,因为人类的大部分思维都是潜意识性的。事实上,我们思想的意识部分仅仅是我们大脑运算的极微小的一部分。

史蒂文·平克(Steven Pinker)博士说:“我愿意花很多钱买一个能够收拾餐具或做简单差事的机器人,但我买不到,因为实现这些功能所要解决的一些制造机器人的小问题,如识别物体、思考世界、控制手臂和脚等都是还没有解决的工程难题。”

虽然好莱坞电影告诉我们,可怕的终结者机器人可能离我们不远了,但制造出一个智能大脑比我们之前设想的要困难得多。我曾经问过明斯基博十,机器什么时候能够达到甚至超过人类智能。他说,他相信这终将发生,但他不会再对具体日期进行预测了。鉴于人工智能如同过山车般的历史,也许最明智的办法是:规划出人工智能的未来蓝图,但不设定具体的时间表。

至少有两个基本问题困扰着人工智能:图形识别和常识。

我们最好的机器人还只能识别出像杯子或球这样简单的物体。机器人的眼睛也许比人眼更能看清细节,但机器人的大脑无法识别出自己看到的是什么。如果你将机器人置于一条陌生而繁忙的大街上,它马上就会迷失方向,然后迷路。由于这个问题,图形识别(例如,识别物体)的进展比先前预计的要慢得多。

一个机器人进入房间,它要做上万亿次运算,把看到的物体分解为像素、线条、圆圈、方块和三角,然后将这些图形与大脑中储存的成千上万个图像比对。例如,椅子在机器人眼中是纷乱的图线和圆点,它们无法轻松地认出“椅子”的基本特征。即使机器人能够将一个物体与数据中的图像进行成功比对,微小的偏转(如椅子被打翻在地)或视角发生改变(从另外一个角度观看椅子)也会使机器人迷惑。而我们的大脑会自动考虑不同的角度和变化。我们的大脑在潜意识中进行了上万亿次运算,但整个过程对我们来说似乎毫不费力。

机器人也遇到了常识的问题。它们无法理解有关物理世界和生物世界的简单事实。没有一个方程式能够确认像“潮湿天气让人不舒服”和“妈妈比女儿年长”之类的(对于人类)不言而喻的事实。我们把这类信息转译为数理逻辑方面取得了一些成绩,但要完全登录一个4岁儿童的常识将需要上百万行计算机代码。就像伏尔泰曾经说的:“常识并不平常。”

例如,日本(全世界30%的工业机器人在此制造)本田集团制造的最先进的机器人之一ASIMO(阿西莫)。这个非凡的机器人,大小相当于一个少年,能够行走、跑步、爬楼梯、说不同的语言,还会跳舞(事实上比我跳得好)。我在电视上与ASIMO互动过很多次,它的能力给我留下了很深的印象

不过我私下里见到了ASIMO(阿西莫)的制造人,问了他们这个关键的问题:如果把ASIMO与动物相比,它的智力有多高呢?他们坦承,它的智能相当于一只虫子。行走和说话主要是为了媒体宣传。问题在于ASIMO大体上就是一台大录音机。它拥有的真正的自治功能是非常少的,几乎所有话语和动作都有提前精心准备的脚本。例如,录制我和ASIMO互动的短片花了大约3个小时,因为它的手势和其他动作都需要操作者团队提前编程。

如果我们把这种情况与我们对人类意识的定义相比较,现在的机器人似乎还处在非常原始的水平,仅仅是通过学习基本事实来理解这个物理世界和社会。因此,机器人还谈不上能够对未来进行真实的模拟。例如,要让一个机器人编写抢劫银行计划,就等于假设这个机器人知道有关银行的所有基本知识,如钱存放在哪里,有什么安全系统,警察和旁观者对这种情况会做出什么反应。其中有一些可以进行编程,但仍有成百上千个人类大脑非常自然地就能理解的细节,但机器人无法理解。

机器人表现卓越的地方是在一个单一的精确领域中模拟未来,如下国际象棋、天气建模、跟踪银河系中的碰撞等。因为下国际象棋的规则和引力定律为人们所知已经有几百年,模拟一盘棋局的进展或一个恒星系的未来仅仅涉及计算机的原始计算能力。

试图用蛮力超越这个水平也陷入了困境。有一个称为CYC的野心勃勃的项目,期望能够解决常识问题。CYC(即Cycorp公司的人工智能项目)要纳入上百万行计算机代码,包含所有理解物理环境和社会环境所需的常识信息和知识信息。虽然CYC能够处理成千上万个事实和上百万条话语,但它还是无法复制出4岁儿童的思维水平。不幸的是,在几篇乐观的媒体报道之后,这个项目停滞了。很多程序员选择离开,截止日期一延再延,不过项目还在继续。

我们哪里出错了呢?过去的50年里,人工智能领域的科学家试图以类比数字计算机的方式模拟大脑。也许这个方法过于简单了。正如约瑟夫·坎贝尔(Joseph Campbell)曾经说过:“计算机就像旧约圣经中的神灵,有很多戒律,却没有恩惠。”如果从奔腾芯片中拿走一个晶体管元件,这台计算机会立即崩溃。但人的大脑即使有一半缺失还是会照常工作。

这是因为大脑根本就不是数字计算机,它是一种非常复杂精密的神经网络。与拥有固定架构(输入、输出和处理器)的数字计算机不同,神经网络中集合了神经元,通过学习新的技能不断重构,不断自我加强。大脑中没有程序和操作系统,没有Windows平台,也没有中央处理器。与之相反,大脑的神经网络是庞大的平行结构,为完成“学习”这个单一目的就有1000亿个神经元同时启动。

有鉴于此,人工智能研究人员开始重新审视他们在过去50年中所遵循的“自上而下的方法”(例如,将所有有关常识的规则编录到CD中)。现在人工智能研究人员重新看待“自下而上的方法”了。这种方法力求模仿大自然的过程,以进化的方式创造出智能生命(我们),从蠕虫、鱼这种简单的动物开始,然后创造出更为复杂的生物。神经网络必须经过痛苦才能学会技能,碰壁和出错是必由之路。

麻省理工学院著名的人工智能实验室前主任,iRobot机器人公司(很多家庭使用的吸尘器由其制造)联合创始人,罗德尼·布鲁克斯(Rodney Brooks)博士引入了一种开发人工智能的全新方法。为什么要设计又大又笨重的机器人,为什么不制造小型的、紧凑的、像昆虫一样的机器人,让它们以自然的方式自己学会走路呢?在我对他的采访中,他告诉我,他常常为蚊子感到惊叹。蚊子只有一个近乎于只能用显微镜观察的大脑,所包含的神经元数量非常少,但它在空间中的活动能力要好过所有机器人飞机。他制造了一系列非常小的机器人,并冠以“昆虫机器人”或“小虫机器人”这样的爱称,这些机器人穿行在麻省理工学院的土地上,还可以绕着传统的机器人转圈。他们的目标是制造出可以使用试错法这种大自然方法的机器人。也就是说,这些机器人可以通过碰壁学习事物。

(最初,这似乎需要大量的编程工作。然而,颇有讽刺意味的是,神经网络不需要任何编程。神经网络所做的唯一事情是在每作出一次对的决策后改变某些通路,进而重构自己。因此,编程并不稀奇,改变网络才是重点。)

科幻小说作家曾经设想火星上的机器人将会是非常复杂的类人机器人,它们的走路和活动与我们相同,所携带的复杂程序使它们拥有人类的智能。正在发生的事情却与之相反。今天这种方法的产物,如“好奇号”火星探测器,正在火星表面巡游。程序使它们可以像人类一样行走,但它们的智力却只相当于一只虫子,不过在火星的土地上它们工作得还不错。这些火星探测器只有相对比较少的程序,它们通过碰到障碍物进行学习。

也许,要理解为什么真正自治的机器人还没有出现,最清晰的方法是为它们的意识排序。在第2章中,我们把意识分为4个等级。0级意识用来指代恒温器和植物。这种意识包含几个关于简单参数的反馈回路,如温度或阳光。Ⅰ级意识用来指代昆虫和爬行动物,它们可以活动,并且具有中枢神经系统。这种意识可以用空间这种新参数来构建世界的模型。然后是Ⅱ级意识,能够从自身与其同类的关系出发构建世界的模型,这需要情感。最后是Ⅲ级意识,即人类的意识,其中纳入时间和自我意识来模拟事物未来的发展情况,并确定我们自己在这些模型中的位置。

利用这种理论,我们可以为当今的机器人排序。第一代机器人处在0级,它们无法活动,没有车轮或轮胎。今天的机器人处于Ⅰ级,它们虽然能够活动,但仍处在很低的水平,因为它们很难在真实的世界中畅游。可以把它们的意识比作蠕虫或缓慢活动的昆虫。为完全达到Ⅰ级意识,科学家们必须制造出可以真正复制昆虫和爬行动物意识的机器人。即便是昆虫也拥有目前的机器人所没有的能力,比如快速找到藏匿位置、在森林中寻找伴侣、识别并躲避捕食者、寻找食物和巢穴。

我们之前提到,可以用数字为每个意识等级所包含的反馈回路数量排序。例如,有视觉能力的机器人须拥有某几个反馈回路,因为它们具有视觉传感器,能够在三维空间中发现影子、边界、弯曲、几何图形等。同样,有听觉能力的机器人需要识别频率、强度、压力、停顿等信号的传感器。这些回路的总数可以达到10个左右(昆虫可以在野外觅食、寻找伴侣、发现巢穴等,它们拥有的反馈回路数大约有50多个)。因此,机器人通常拥有的意识为Ⅰ:10级。

如果机器人能够进入Ⅱ级意识,那么它应该能够建立起自己与其他同类的关系模型。我们之前提到,Ⅱ意识大约等于种群成员数量与它们之间交流所使用的情感和姿势数量的乘积。这样机器人的Ⅱ级意识为Ⅱ:0。我们期望现在实验室中正在建造的机器人能够很快提高这个数值。

当今的机器人只能把人看成在其视觉传感器上移动的一组像素点,但有些人工智能研究者已经开始制造能够识别我们脸部表情和声音语调中传递出的情感的机器人。这是机器人向着能够意识到人类不仅仅是随机的像素点,能够意识到人类具有情感状态的目标迈出了第一步。

未来的几十年中,机器人会逐渐提升到Ⅱ级意识,达到与老鼠、小白鼠、兔子以及猫一样的智能水平。也许在本世纪末,机器人可以达到猴子的智能水平,可以开始形成自己要追求的目标。

一旦这些机器人有了常识性的应用知识,掌握了心灵理论(Theory of Mind,或“心理理论”),它们便能够以自己为主要角色对未来进行复杂的模拟,从而进入Ⅲ级意识。它们将从当下的世界出发,进入未来的世界。这要比当今的机器人先进几十年。对未来进行模拟意味着对自然规律、因果律和常识的牢固把握,从而能够预见未来事件。这还意味着需要理解人类意图和动机,进而能够预测人类未来行为。

Ⅲ意识的数值,正如我们所提到的,通过在多种现实情境中模拟未来所建构的因果关系链总数,除以控制组的平均数值来计算。今天的计算机可以在几个参数上进行有限的模拟(例如,两个星系的碰撞、飞机周围的气流、地震中大楼的摇动),但它们无法在复杂的实时情景中模拟未来,因此它们的Ⅲ意识水平大约为Ⅲ:5。

正如我们看到的,制造出能够在人类社会中正常工作的机器人还需要很多年的艰苦努力。

机器人的智能什么时候可以赶上并超越人类呢?没有人知道,但人们进行了很多预测。其中大多数都基于摩尔定律,把它延伸到未来几十年。不过摩尔定律其实根本就不是定律,事实上它最终会违背一个基本的物理规律:量子理论。

正是这个原因,摩尔定律不会无限适用。事实是,我们已经看到它现在的发展放慢了速度。这个10年的最后几年或下个10年,我们也许就能够看到它的效果趋于停滞,这种结果是可怕的,对于硅谷尤其如此。

问题十分简单。现在,我们可以把数百万个硅晶体管放到一个指甲大小的芯片上,但芯片上能够承载的晶体管数是有限的。目前奔腾芯片中最小的一层硅大约20个原子宽,到2020年这个表层会达到5个原子宽。但之后海森堡的测不准原理会发生作用,我们无法准确判断电子在哪里,它有可能“溢出”线路。(关于量子理论和测不准原理的更多细节见附录。)芯片会发生短路。另外,它们会产生足够煎熟鸡蛋的热量。因此,溢出问题和散热问题最终会使摩尔定律前景堪忧,替代这个定律很快就会成为必要的工作。

因为在平坦的芯片表面布置晶体管使计算机能力不再增加,所以英特尔公司开始投入几百亿美元制造三维芯片。时间会告诉我们这场赌局会不会赢(3D芯片面临的一个大问题是生成的热量随着芯片的高度急剧上升)。

微软选择了另外的道路,比如在2D环境中拓展平行处理。一种可能性是将芯片平铺成一排。然后把一个软件任务分割为几块,每一块由对应的一块小芯片负责,并在末端重新整合在一起。不过,这个过程可能很困难,与我们熟悉的摩尔定律呈指数高速增长相比,软件发展得十分缓慢。

这些权宜之计可以增加摩尔定律的年限。不过最终这一切都将失去作用:量子理论不可避免地要发挥作用。这意味着物理学家们需要在硅时代接近尾声时找出各种各样的出路,如量子计算机、分子计算机、纳米计算机、DNA计算机、光计算机等。但所有这些技术都还没有为它们的黄金时代做好准备。

暂且假设有一天我们可以与令人难以置信的复杂机器人共存,这些机器人可能会用到分子晶体管芯片,而非硅晶体管芯片。我们期望这些机器人看上去要与我们有多像呢?日本在制造造型像可爱的宠物和儿童一样的机器人方面领先世界,不过这些机器人可能会使人不舒服。1970年,日本的森政弘(Masahiro Mori)博士最早研究了这种现象,把它称为“恐怖谷”理论。这种理论假定,如果机器人的造型太像人类会令人毛骨悚然。(这种效应事实上是由达尔文在1893年于《乘小猎犬号环球航行》[The Voyage of the Beagle]中首次提到,后来弗洛伊德在1919年的论文“恐怖谷心理学”[The Uncanny]中也曾提到。)从此,精细地研究这种现象的不仅有人工智能学者,还包括动画制作专家、广告人员以及所有波及类人形产品的从业人员。例如,美国有线电视新闻网(CNN)撰稿人在对电影《极地特快》(The Polar Express)的评论中写道:“电影中那些人类角色给人一种完完全全的……可以说是不寒而栗的感觉。所以,《极地特快》往好处说是令人不安,往坏处说简直是有点恐怖。”

根据森政弘博士的说法,机器人长得越像人类,我们就越会与它们有相同的情感,但这有一个限度。当机器人的造型接近真人形象时,同感就会下降,即出现恐怖谷心理。如果机器人除去几个“恐怖”的特征之外与我们十分相像,这就会造成反感和恐惧。如果机器人与人类百分之百相像,与我们无法区分,此时我们就又会产生正面情感了。

这一点有其实际意义。例如,机器人是否应该微笑?最初,似乎很明显机器人应该微笑以向人致敬,使人感到舒服。微笑是一种普遍的热情和欢迎的表示。但如果机器人的微笑太逼真,这就会使人汗毛直立。(比如,万圣节的面具总是被做成魔鬼般的僵尸咧嘴笑嘻嘻的样子。)所以会微笑的机器人只能是儿童型的机器人(比如,大眼睛、圆脸),或者是完全与人类相同,没有任何失真之处。(当我们勉强微笑时,大脑通过前额叶皮层激活面部肌肉。而当我们因心情愉快而微笑时,神经由边缘系统控制,所激活的肌肉群有些不同。大脑可以告诉我们这两者的微小差别,这对我们的进化十分有益。)

这种效应还可以用大脑扫描来研究。假定把一个受试者放进磁共振成像(MRI)机中,让他观看一幅造型完全像人但身体运动有点不连贯和呆板的机器人照片。大脑无论何时看到任何东西都会预测物体将来的运动。所以,在看到这个类人机器人时,大脑会预测它的运动应该与人一样。但在发现它的运动更像机器时,大脑中就会出现不匹配的情况,这使我们感到不舒服。具体而言,顶叶会被激活(尤其是顶叶中运动皮层与视觉皮层相接触的部分)。人们相信镜像神经元处在顶叶区域。这的确有道理,因为视觉皮层接收到类人机器人的图像,运动皮层和镜像神经元会预测出它的运动。最后,在眼睛后面的眶额叶皮层会将这一切统合起来,告诉我们:“嗯,有点不对劲。”

好莱坞的电影制作人深谙此道。拍摄恐怖片时,他们发现最吓人的场景并不是庞大的未知物或弗兰肯斯坦式的科学怪物从树林里突然蹿出,而是对正常情况做小小的改动。让我们回想一下电影《驱魔人》(The Exorcist)把影迷吓到逃出影院,跑到呕吐,有些甚至在座位上昏倒的是什么场景呢?是屏幕上魔鬼出现的时候吗?不是。全世界的剧院都是在琳达·布莱尔(Linda Blair)完全转过她的头的一刹那爆发出惊声尖叫。

这种效果可以用小猴子进行演示。如果给它们看吸血鬼或科学怪物的照片,它们只会大笑,然后把这些照片撕碎。但给这些小猴子看一张被砍头的猴子照片时,它们会恐惧得尖叫。这又一次证明,对正常情况的歪曲会引发最大的恐惧感。(在第2章中,我们提到意识的时空理论可以解释幽默的本质,因为大脑会模拟笑话的未来走向,然后在听到预想不到的结局时会很吃惊。这也可以解释恐惧的本质。大脑模拟出日常事件的走向,当事物突然以恐怖的歪曲形象出现时,人们会被惊呆。)

正是这个原因,机器人的造型会一直保持儿童的模样,即使它们接近人类的智能,也会如此。只有当机器人可以完全像人一样在真实世界活动时,设计人员才会让它们长得完全像人。

我们看到,人类意识是不同的能力经过几百万年进化构成的并不完善的拼凑物。如果拥有了关于物理世界和社会的知识,机器人也可能生成与我们相同的(或者在某些方面超过我们的)世界模型,但硅意识在两个关键领域也许会与我们不同:情感和目标。

历史上,人工智能研究者忽略了情感问题,认为它只是一个次要的问题。他们的目标是制造一个有逻辑、有理性的机器人,而不是情感纷乱并受情感驱使的机器人。因此,20世纪50年代和60年代的科幻小说总是强调机器人(以及像《星际迷航》中斯波克那样的类人机器人)拥有完美的、善于逻辑思考的大脑。

我们从恐怖谷现象中看到,必须找到合适的路径才能走进我们的家门,但有一些人认为机器人还应该拥有情感,这样我们才能与它们建立感情上的联系,才能照顾它们并与它们进行有益的互动。换句话说,机器人需要Ⅱ级意识。为达成这一目标,机器人首先要能够识别出所有人类情感。将来,机器人可以通过分析细微的面部运动,如眼眉、眼睑、嘴唇、脸颊等部位的运动,识别出人(比如它的主人)的情感状态。麻省理工学院媒体实验室是一所在制造可识别并模仿情感的机器人方面表现优异的研究机构。我有幸几次参观这个位于波士顿郊外的实验室,感觉就像参观一家专门为成年人生产玩具的工厂。到处可见具有未来感的高科技装备,它们让我们的生活更有趣、更快乐、更便捷。

环绕房间一周,我看到实验室里有许多高科技图画,它们最后都出现在好莱坞电影中,如《少数派报告》(Minority Report)和《人工智能》(AI)。我在这个未来游乐场里闲逛,遇到两个令人着迷的机器人,哈格博(Huggable)和纳克西(Nexi)。它们的创造者辛西娅·布雷齐尔(Cynthia Breazeal)博士告诉我,这两个机器人都有特定的目标。哈格博是一个像泰迪熊一样的机器人,可以跟小朋友建立关系。它可以识别儿童的情感,安装了用于观察的摄像机,用于说话的扬声器,以及皮肤上有传感器(因此当有人给它搔痒、戳它一下或拥抱它时,它可以感知到)。到最后,这种机器人可以充当家庭教师、保姆、护士助手或玩伴的角色。

纳克西可以与成年人建立联系。它的造型有点像面团宝宝,圆圆胖胖的脸蛋,亲切的长相,大大的眼睛滴溜溜地转动。纳克西已经通过了一家疗养院的检验,所有老人都喜欢它。一旦老年人熟悉了纳克西,他们会亲吻它,与它交谈,当它离开时还会想念它。(见图12)。

图12 哈格博(上)和纳克西(下),麻省理工学院媒体实验室制造的两个机器人,它们被设计成能够通过情感与人类互动。

布雷齐尔博士告诉我,她设计哈格博和纳克西是因为她对之前的机器人都不满意,那些机器人的样子就像一个个装满线路、设备和电机的金属罐头。为了设计一个能够与人进行情感交流的机器人,她需要弄清楚怎样使它与我们一起互动,建立联系。另外,她希望自己的机器人不要停留在实验室的设备架上,希望它们能够走入真实的世界。麻省理工学院媒体实验室前主任弗兰克·莫斯(Frank Moss)博士说:“这就是为什么布雷齐尔在2004年决定开始制造新一代的社会机器人,它们可以在任何地方使用,如家庭、学校、医院、老人院等。”

在日本的早稻田大学,科学家们正在开发一种机器人,可以进行上半身活动,表达情感(恐惧、愤怒、惊讶、愉快、厌恶、悲伤),有听觉、嗅觉、视觉和触觉。机器人的程序可以完成一些简单的任务,如补充能量和避开危险环境。他们的目标是纳入与情感有关的感觉,使机器人在不同情境下都能举止得当。

欧盟在这方面也是争先恐后,他们资助了一个正在进行中的名为“菲利克斯成长”(Feelix Growing,又译“感知成长”)的项目,要在英国、法国、瑞士、希腊和丹麦推进人工智能。

认识一下Nao(瑙)机器人。

当他开心时,他会伸出手臂迎接你,期待着一个大大的拥抱。当他悲伤时,他会低垂着头,表现出孤独与绝望,两个肩膀向前耸着。当他受惊吓时,他会恐惧地退缩,需要有人拍拍他的头安慰他。

他与一个一岁的男孩没什么两样,只不过他是一个机器人。Nao大约1.5英尺(0.46米)高,造型与玩具店里的机器人差不多,比如变形金刚,不过他可是这个世界上最先进的情感机器人之一。他由英国哈特福德大学的科学家制造,该项研究得到了欧盟的资助。

制造者给他编入了表现开心、悲伤、恐惧、兴奋和骄傲等情感的程序。其他机器人只具备基本的传达情感的面部动作和语言行为,而Nao在肢体语言方面(如姿势和手势)已经有非常高超的水平。瑙(Nao)甚至还会跳舞。

与其他只掌握一种特定情感的机器人不同,Nao掌握一系列的情感回应方法。首先,Nao锁定观察者的面部,进行识别,然后记住他之前与这些人互动的情况。其次,他开始跟踪这些人的活动。例如,他可以跟踪他们的目光,判断出他们正在看什么。第三,他开始与这些人建立联系,学习怎样对他们的身势进行回应。例如,如果你对他微笑或拍拍他的头,他就知道这是一种积极的信号。因为他的大脑具有神经网络,他可以在与人类的互动中进行学习。第四,Nao在与人的互动中可以表现出情感回应。(他的情感回应都经过编程,就像录音机一样,但由他来决定选择哪种情感以用到具体情境中。)最后,随着Nao与某一个人互动的深入,他就会越深入地理解这个人的心情,他们之间的联系也变得越来越牢固。

Nao不仅有个性,事实上他能同时表现出几种个性。由于他能在与人类的互动中进行学习,而每次互动都是独一无二的,最终他会表现出不同的个性。例如,其中一种个性可能十分独立,不需要人类的关心。另一种个性可能非常胆小、恐惧,害怕屋子里的物体,总是需要人的关心。

Nao的项目负责人是哈特福德大学的计算机科学家,洛拉·加纳梅罗(Lola Cañamero)博士。为了展开这项很有雄心的计划,她研究了黑猩猩之间的互动。她的目的是尽可能地复制一个一岁大的黑猩猩的情感行为。

她认为这些情感机器人可以立即投入应用。就像布雷齐尔博士一样,她希望这些机器人可以减轻生病住院的儿童的焦虑。她说:“我们想研究不同的角色——机器人可以帮助儿童了解自己的治疗方案,向他们解释要做什么。我们希望帮助儿童控制自己的焦虑。”

另外一种可能性是,这些机器人可以成为疗养院中的陪伴。Nao可以成为医院员工很得力的助手。同时,像这样的机器人还可以成为儿童的玩伴,成为家庭中的一个成员。

圣迭戈附近的索尔克(Salk)生物科学研究所的泰伦斯·谢伊诺夫斯基(Terrence Sejnowski)博士说:“很难预测未来,但我们面前的计算机演变成一种社会机器人应该不会太遥远。你可以跟它说话,跟它谈情说爱,甚至可以对它发脾气,向它怒吼。它能够理解你,理解你的情感。”这些是容易做到的。困难的是评估机器人得到这些信息后会作出什么回应。如果主人生气不高兴,机器人应该把这种因素纳入到它的回应中。

此外,人工智能研究者开始认识到情感可能是人类意识的关键。像安东尼奥·达马西奥(Antonio Damasio)博士这样的神经科学家发现,前额叶(负责理性思维)与情感中枢(例如边缘系统)的连接发生损坏时,病人就不能进行价值判断。即使进行最简单的决策(买什么东西,什么时候约会,用什么颜色的笔),他们都会陷入瘫痪,因为每件事对他们来说都具有相同的价值。因此,情感并不是什么无关紧要的奢侈品,它有着绝对的重要性,没有情感,机器人就无法确定什么是重要的和什么不是。所以,情感现在不再居于人工智能研究的边缘,而是占据了中心地位。

如果机器人遇到大火,它可能会首先抢救电脑资料,而不是抢救人,因为它的程序可能会认为有价值的文件不能复制,而工人总是有替代者。所以,关键的一点是,机器人的程序需要判断什么是重要的,什么是不重要的,而情感正是大脑用来快速确定这一点的捷径。因此,机器人的程序也应该建立这种价值体系:人的生命比物体更重要,应在紧急事件中先抢救儿童,价格高的物体比价格低的物体更有价值等。由于机器人并非天生就具有价值判断,所以必须给它上传一张庞大的价值判断清单。

然而,情感带来的问题是,它有时并不理性,而机器人具有数学般的精确性。所以硅意识与人类意识可能有着本质上的不同。例如,人类几乎无法控制情感,因为情感来得非常快,也因为它产生于人大脑的边缘系统,而非前额叶皮层。此外,人类情感经常带有偏见。无数的实验表明,我们倾向于高估那些长相俊美的人的能力。这些人在社会中很可能会有更好的前途,更好的就业,虽然他们的能力不一定比其他人强。正如常言道的:“美丽有特权。”

同样,硅意识也许并不考虑人类在交往中所使用的那些微妙的信号,比如身势语言。当我们进入房间时,年轻的人通常会礼让年长的人以表示尊敬,职位低的人会对上司格外礼貌。我们通过身体的移动、语词的选择以及我们的体态手势表现出尊敬。因为身势语言比语言本身更为古老,已经以精微的方式写进了我们的大脑中。如果要机器人与人类进行社交互动,那么它们就需要学会这些潜意识性的信号。

我们的意识受到进化过程中具体事物的影响,这是机器人不具备的,所以硅意识中可能不会出现人类意识中的缺陷或怪癖。

由于情感要通过外部编程赋予机器人,所以制造者需要提供一份精心选取的情感菜单,判断哪些必要,哪些有用,哪些有助于巩固主人与机器人之间的联系。

非常可能的是,机器人的程序中只包括几种人类情感,这取决于具体情境。也许机器人的主人最看重的是忠诚。我们希望自己的机器人忠实地完成自己的指令,毫无抱怨,希望它明白主人的意图,甚至预知这些意图。主人最不希望的是有自己态度的机器人,不希望它们回嘴、批评人类或抱怨。有益的批评很重要,但这些必须以一种建设性的、策略性的方式作出。另外,如果人们给出的指令相互矛盾,机器人应该知道只听从主人的指令,忽略其他人的所有指令。

同感是另外一种主人会看重的情感。有同感能力的机器人能够理解他人的问题,给他们提供帮助。通过理解面部运动,聆听声音语调,机器人能够判断出一个人是否处在困境中,并在可能的情况下提供帮助。

奇怪的是,恐惧也是一种有益的情感。进化赋予我们恐惧的感情并非偶然,它让我们避开危险的事物。即使机器人由钢铁制成,它们也应该害怕那些会对它们造成伤害的事物,如从高楼上掉落或被大火吞没。如果机器人完全无畏地毁了自己,它就什么用处都没有了。

但有些情感需要删除、禁止或严格管控,如愤怒。假设我们所制造的机器人有着强大的体力,如果它发脾气就会在家庭中和工作场所中造成巨大的问题。愤怒会影响它的职责,也会带来很大的财产损失。(愤怒进化出来的原始目的是表达我们的不满。这能够以理性的、冷静的方式实现,而不必愤怒。)

另外一种应该删除的情感是控制欲。爱发号施令的机器人只会带来麻烦,会挑战主人的判断和愿望。(这一点对后面的内容也很重要,我们将讨论机器人有一天是否会接管人类。)所以要使机器人听从主人的意愿,即便这不是最好的路径。

但是,也许最难传达的情感是幽默,这是把陌生人联系在一起的纽带。一个小笑话能够缓解紧张的局面,也会将其引爆。幽默的基本原理十分简单:其中包含一个出乎意料的妙语。但幽默的细微之处却包罗万象。事实上,我们总是会从一个人对某些笑话作何种反应来判断他的为人。如果人类把幽默作为一种测量器来评判别人,那么我们就能理解制造出可以听出笑话可不可笑的机器人的困难之处。例如,罗纳德·里根(Ronald Reagan)总统用妙语化解难题的功夫十分有名。他真的积攒了一大堆写有笑话、讽刺警句和俏皮话的卡片,因为他懂得幽默的力量。(有些博学之士认为他赢得与沃尔特·蒙代尔(Walter Mondale)的大选辩论,是因为当被问及他当总统是否太老了时,他的回答是他不会以对方的年轻攻击对方。)不过,不恰当的幽默会造成灾难性的后果(事实上有时也是一种精神疾病的征兆)。机器人需要知道和别人一起笑与嘲笑别人的差异。(演员们非常清楚笑的这两种属性。他们通过娴熟的技巧制造出代表幽默、讽刺、愉悦、愤怒、悲伤等不同情感的笑声。)所以,除非人工智能理论已经非常发达,不然机器人还是应该不要幽默和笑声为好。

在上面的讨论中,我们没有涉及究竟怎样把情感程序写入计算机这个难题。因为情感的复杂性,给它们编程可能需要分阶段进行。(www.xing528.com)

首先,最容易的部分是通过分析人的面部、嘴唇、眼眉和声调等符号来识别情感。当今的面部识别技术已经能够编出一部情感词典,告诉我们特定面部表情传达什么特定含义。这个研究进程可以追溯到查尔斯·达尔文,他花了大量时间编纂记录人类和动物共有的情感。

其次,机器人必须能够对这种情感做出快速回应。这也比较简单。如果有人在笑,那么机器人也应该咧嘴笑。如果有人生气,那么机器人应该闪开,避免冲突。机器人的程序中会有一部情感的百科全书,这样它就能知道怎样对每个情感做出快速反应了。

第三个阶段也许是最为复杂的,因为它关乎确定原始情感背后的潜在动机。这非常困难,因为一种情感可以由不同的情景引发。笑可能意味着某人开心,也可能意味着他听了一个笑话或者看到别人摔了一跤。或者,还可能意味着这个人紧张、焦虑或侮辱别人。同样,如果某人尖叫,也许是有紧急情况,也许只不过是他开心或惊讶。确定情感背后的原因是一种甚至是人类自己都觉得有困难的事情。为达到这一点,机器人需要列出一种情感背后的各种可能原因,确定其中最能讲得通的一个。也就是说,要找出与数据最为匹配的情感原因。

第四,机器人确定了情感来源之后,它需要做出相应的反应。这也比较困难,因为通常会有几种可能的反应,错误的反应会使得情况更糟。机器人的程序中已经有了对原始情感作如何反应的清单。它还要计算出哪一种反应是当下情境中最适合的,这就意味着对未来进行模拟。

一般情况下,我们会认为机器人总是冷冰冰地进行分析,富于理性,总是说真话。但是,如果要机器人融合到社会中,它们就可能必须学会说谎,或至少有策略地保留自己的意见。

在生活中,我们一天会遇到好几次必须说善意谎言的情况。如果别人问我们,他们长得怎么样,我们一般不敢说实话。善意的谎言就像润滑剂一样,能够使社会的运转更平滑。如果要我们突然完全说真话(就像《大话王》[Liar Liar]中金·凯利[Jim Carry]的角色),很可能会造成混乱,并伤害别人。如果你告诉别人他们的真实模样,或者你的真切感受,他们会觉得受到冒犯,老板会炒你的鱿鱼,情人会抛弃你,朋友会离你而去,陌生人会给你一巴掌。一些想法最好还是藏在心里。

同样,机器人可能也需要学习说谎或隐瞒事实,不然它们就会冒犯人类,被主人解雇。如果机器人在聚会上说实话,这可能让主人十分难堪,造成混乱。所以,如果有人询问它的意见,它应该学会闪烁其词,学会外交辞令和策略性语言。它要么回避问题,改换话题,说些陈词滥调,用问题回答问题,要么就说善意的谎言(这些都是现在的聊天机器人所擅长的)。这说明,机器人的程序中已经有了一张如何做出逃避性回应的清单,必须从中选择一种使事情最为简化的回应。

需要机器人完全说真话的少数场合之一是对主人的直接提问进行回答,主人可以理解这个答案可能真实而残酷。或许仅有的另外一个需要机器人说真话的场合是警察办案的时候,这时需要完全的真相。除此之外,机器人可以自由地说谎,或者隐瞒事实。这样,社会的车轮才会顺利转动。

换句话说,机器人必须社会化,就像十几岁的青少年一样。

我们一般会给机器人安排枯燥、肮脏或危险的工作。机器人没有理由不做无休止的重复或肮脏的工作,因为我们不会给它们编入感觉到枯燥或厌恶的程序。真正会产生问题的是当机器人面对危险工作的时候。这种情况下,我们会希望对机器人编程使它能够感觉到疼痛。

我们进化出痛感,是因为它能帮助我们在危险环境中存活。儿童如果生下来就没有感觉疼痛的能力,这是一种基因缺陷,称为先天性无痛症。表面看来,这似乎是一种福分,因为儿童在经历伤害时不会感到疼痛,但事实上这更是一种诅咒。患这种病的儿童会遇到严重的问题,比如咬掉自己的舌头,皮肤严重烧伤,割伤自己,有时会导致手指截肢。疼痛使我们对危险保持警觉,告诉我们什么时候从燃烧的炉子上把手拿开,什么时候停止带着扭伤的脚跑步。

某些时候,机器人的程序设计也应该使它感觉到疼痛,不然它们将不会知道什么时候躲避危险。它们必须具有的第一种疼痛感是饥饿(即渴望得到电能)。当电池用尽时,它们会变得绝望、着急,意识到不久自己的电路就会关闭,自己的所有工作会陷入一团糟。它们越是接近没电,就越发焦虑。

同样,不管它们有多么强壮,机器人也会偶然遇到所搬运的物体太重,可能把肢体弄断的情况。或者,它们在钢铁厂的工作会接触到熔化的金属,或者进入燃烧的大楼去帮助消防员时可能会遭遇过热。温度和压力传感器会警告它们自己的设计规定已经被突破了。

但是,一旦在它们的情感清单中加入疼痛感,就会立即出现道德问题。很多人认为我们不应该给动物施加不必要的疼痛,对机器人,人们也可能有相同的感情。这就引出了机器人的权利问题。我们可能会颁布法律限制机器人要面对的疼痛和危险值。如果机器人做的是枯燥或肮脏的工作,人们并不会在意,但如果它们在从事危险工作时感到疼痛,人们可能就会开始提议立法保护机器人。这甚至会引起法律冲突,机器人的主人和制造商要求提高机器人能够忍受的痛感,而道德人士要求降低这种痛感。

这还可能会引发有关机器人其他权利的道德辩论。机器人可以拥有财产吗?如果机器人偶然伤害到人会怎么样?能够对机器人进行诉讼,对它们进行惩罚吗?在诉讼中由谁承担责任?机器人可以拥有另外一个机器人吗?这种讨论引出了另外一个棘手的问题:应该给机器人道德感吗?

最初,人们认为制作道德机器人的想法似乎是在浪费时间和精力。然而当我们意识到机器人会进行生死攸关的决策时,这个问题就有了紧迫性。由于它们体格强壮,有着解救生命的能力,它们有时就不得不针对先救谁做出快速的道德选择。

假设发生了一场灾难性的地震,儿童被困在一座快速坍塌的大楼里。机器人应该怎样分配自己的能量?它是否应该努力解救尽可能多的儿童?或年龄最小的?或最脆弱的?如果废墟残片太重,机器人的电子系统可能遭受伤害。所以机器人还要决定另外一个道德问题:它要在所解救的儿童数量与它自己能够承受的电子伤害之间做出怎样的权衡?

如果没有恰当的程序,机器人会停在那里,等待人类做出最后决定,从而浪费宝贵的时间。所以应该有人提前编好程序,使机器人能够自治地做出“正确的”决定。

这些道德决定应该在一开始就进入电脑程序,因为没有任何数学规律可以对解救儿童赋予价值概念。在这个程序中,应该有一个长长的清单,所列事项按照其重要性排序。这是一种令人生厌的工作。事实上,一个人学到相关道德准则可能要花一辈子的时间,但机器人要安全地进入社会,它们就必须很快学习这些内容,在它们离开工厂之前学会。

只有人能够完成这项任务,即便如此,道德问题有时还是会使我们迷惑。但这引出了下面的问题:谁来做决定?谁来决定机器人以怎样的顺序解救人类生命?

关于最终怎样做出这些决定的问题很可能由法律和市场共同解决。我们所通过的法律至少要囊括紧急情况下救人的顺序。但除此之外,还有成千上万个更为细微的道德问题。这些微妙的决定可以通过市场和常识做出。

如果你为一家负责重要人物安全的安保公司工作,你就会告诉机器人在不同情况下以怎样的顺序救人,要考虑的因素包括主要职责以及预算。

如果一个罪犯购买了一个机器人,并要求机器人犯罪会怎么样呢?这引出的问题是:在机器人被要求违法时,是否应该允许机器人反抗主人命令?我们从前一个例子看出,机器人的程序必须使其理解法律并做出道德抉择。如果它判定自己的任务是违法的,它就必须反抗主人的命令。

这里还有机器人反思主人的信念所引起的道德困境,主人可能有着不同的道德理念和社会标准。如果机器人能够思考主人的观念和信念,人类社会中的“文化战争”只会被放大。在某种意义上,这种冲突不可避免。机器人是其创造者的梦想和愿望在机械上的延伸,而当机器人已经复杂到可以做出道德抉择时,它们便真的会这样做。

当机器人开始表现出挑战我们的价值观和目标的行为时,社会中正确与错误的分界线可能会得到加强。刚刚离开一场喧闹的摇滚音乐会的年轻人,他们拥有的机器人会与附近安静社区中的老年居民拥有的机器人发生冲突。前面这些机器人的程序可能是放大乐队的音响,而后面的机器人却要把噪音水平降到最低。狂热虔诚的原教旨主义者所拥有的机器人可能会与无神论者拥有的机器人进行争论。来自不同国家和文化的机器人,它们的设计会反映各自社会的风俗习惯,而这也会发生冲突(先别说机器人,对人类也是如此)。

怎样对机器人编程来消除这些冲突呢?

无法去除。机器人只会反映其创造者的偏见。最终,这些机器人的文化和道德差异将不得不诉诸法庭审判。没有物理定律或科学法则能够判决这些道德问题,所以最后需要通过法律来处理这种社会冲突。机器人不能解决人类造成的道德困境。事实上,机器人只会放大这种困境。

但如果机器人能够做出道德和法律抉择,它们是不是也能体会并理解感觉呢?如果它们成功地解救了某个人,它们能不能感受到快乐?或者更进一步,它们能感觉到诸如红颜色这样的事情吗?冷静地分析救人的道德问题是一回事,理解、感觉是另一回事。机器人有感觉吗?

几个世纪以来,关于机器人是否能够思考、是否能够感觉,涌现了大量的理论。我自己的哲学是“建构主义”(constructivism),即不要没完没了地、无意义地争论这个问题,我们应该将精力投入到机器人制造中,看看我们能够达到什么样的水平。否则,我们就陷入了无休止的哲学思辨,问题无法得到最终解决。科学的优势在于,一旦所有事情都弄清做好后,我们可以进行实验来准确地解决问题。

所以,要解决机器人是否能够思考的问题,最终的方法是制造一个机器人出来。不过有些人认为,机器永远不可能像人一样思考。他们最有力的论据是,虽然机器人对于事实的处理要快过人类,但它并不能“理解”自己在处理的是什么。虽然它对感觉(如颜色和声音)的处理要好过人类,但它并不是真正地“感觉”或了解“经历”这些感觉的内涵。

例如,哲学家戴维·查默斯(David Chalmers)把人工智能的问题分为两类:简单问题和复杂问题。对他而言,简单问题是制造越来越会模仿人类能力的机器,如下棋、数字计算、识别某些图形等。复杂问题涉及制造可以理解感情和主观感觉的机器,这些被称为“可感受性”(qualia)

他们认为,这种情况与向盲人传达红色的意义一样,机器人永远不可能了解红色的主观感觉。或者,一台计算机可以很流利地将汉语翻译为英语,但它无法理解它翻译的是什么。在这个图景中,机器人就像光彩夺目的录音机或计算器,在准确记忆信息、处理信息方面的表现令人吃惊,但却没有任何理解。

应该严肃地对待这些论据,但看待可感受性和主观感觉问题还有另一种方法。未来,机器很可能会比人类更好地处理感觉,如红色。它将能够比人类更好地描述红色的物理属性,甚至是更好地把它用在文学性的句子中。机器人是“感觉”到红色吗?由于“感觉”这个词并没准确定义,所以这个问题并不重要。将来的某个时刻,机器人对红色的描写可能超过人类,然后机器人会不无道理地问:人类真正懂得红色吗?也许人类无法真正理解机器人能够理解的关于红色的细微信息。

行为主义者伯尔赫斯·弗雷德里克·斯金纳(B.F.Skinner)曾经说过:“真正的问题并不是机器人能否思考,而是人类能否思考。”

同样,机器人将能够定义汉语字词并比任何人用得都好,这只是时间问题。到那时,机器人是否“懂得”汉语的问题就不重要了。对于所有实际问题而言,机器人对汉语的掌握要好于人类。换句话说,“懂得”这个单词也没有被准确定义。

随着机器人使用单词和操控感觉的能力超过我们,有一天机器人是否“懂得”或“感到”单词和感觉都将不重要。这个问题不再具有任何重要性。

数学家约翰·冯·诺依曼(John von Neumann)说:“在数学中,你不是理解事物。你只是习惯它们。”

所以,问题并不在于硬件,而在于人类语言的本质,其中的字词并没有准确的界定,对不同人会有不同解释。有人曾经问伟大的量子物理学家尼尔斯·玻尔(Niels Bohr),怎样理解量子理论中的深刻的悖论。他的回答是,答案在于你怎样界定“理解”一词。

塔夫斯大学的哲学家丹尼尔·丹内特(Daniel Dennett)博士写道:“没有什么客观的实验可以把一个聪明的机器人与一个有意识的人区分开。现在你面临一个选择:要么执着于这个复杂问题,要么在惊叹中摇摇头忽略它。就这样吧。”

换句话说,所谓的复杂问题并不存在。

就建构主义哲学而言,问题不在于辩论一台机器能不能感觉到红色,而在于建造这台机器。在这个图景中,描述“理解”和“感觉”这两个单词会有连续的各种级别。(这意味着,也许甚至可能给不同程度的理解和感觉标定不同数值。)在这个体系的一端,我们看到的是今天笨重的机器人,它们只能操作几个符号,仅此而已。在另一端就是我们人类,我们为自己能够感觉到“可感受性”而自豪。但随着时间的推移,机器人描写感觉的能力最终会在所有层次上超过我们。那么很明显它们能够“理解”。

这就是艾伦·图灵(Alan Turing)著名的图灵测验背后的思想。他预言,有一天我们将制造出能够回答所有问题的机器人,它与人类将没什么不同。他说:“如果一台计算机能够欺骗一个人,让他相信自己是人类,那么这台计算机就堪称智能。”

物理学家、诺贝尔奖得主弗朗西斯·克里克(Francis Crick)表述得最为精准。在20世纪,他注意到生物学家在激烈地辩论“什么是生命”这个问题。现在,我们有了关于DNA的知识,科学家们意识到这个问题并不清晰。这个简单的问题背后有着很多变化、层次和复杂性。“什么是生命”的问题就这么渐渐消失了。相同的情况也可能最终出现在感觉和理解上。

要使沃森那样的计算机具有自我意识需要采取什么步骤呢?要回答这个问题,我们必须回到我们对自我意识的定义:这是一种能力,能将自己置于一个环境模型中,然后在未来模拟这个环境模型以达到某个目的。完成第一步需要很高的常识水平,这样才能预见未来事件。然后,机器人需要把自己置于这个模型中,这要求机器人对自己可能采取的各种行为有所理解。

明治大学的科学家们已经开始了制造具有自我意识的机器人的第一步。这是一项非常困难的任务,但他们认为用心灵理论制造一个机器人可以实现它。他们先制造了两个机器人。在第一个机器人中编入完成某些动作的程序,第二个机器人编入观察第一个机器人后予以模仿的程序。他们能够制造出完全靠观察第一个机器人就能系统地模仿它的行为的机器人。专门制造具有某种自我意识的机器人,这在历史上是首次。第二个机器人具有一种心灵理论,即它可以通过观察另外一个机器人模仿它的行为。

2012年,耶鲁大学的科学家们进行了第二步,他们制造出了可以通过镜像测试的机器人。把动物放到镜子前,它们中的大多数都会认为镜子里的影像是另外一个动物。在我们的记忆中,只有少数动物通过了镜像测试。耶鲁大学制造出的机器人尼克(Nico)造型类似一副瘦长的导线骨架,具有机械手臂,顶部有凸出的双眼。把尼克放到镜子前,它不仅会认出自己,而且可以通过观察镜子中其他物体的镜像推测出它们的位置。这与我们开车时看后视镜,推测出我们后方物体的位置十分相似。

尼克的程序设计员贾斯汀·哈特(Justin Hart)说:“就我们所知,这是第一个能够这样使用镜子的机器人系统,是迈向一种机器人通过自我观察来自了解自身和长相的严密架构的重要一步,这是通过镜像测试所需要的非常重要的能力。”

由于明治大学和耶鲁大学的机器人代表了制造自我意识机器人的最先进技术,我们很容易看出科学家们距离制造出具有人类一样的自我意识的机器人还有很长的路要走。

他们的工作仅仅是一个开始,因为我们对自我意识的定义是要求机器人能够利用这种信息对未来进行模拟。这大大超出了尼克和其他机器人的能力。

这引出了一个重要的问题:计算机怎样获得自我意识?在科幻小说中,我们经常遇到互联网突然获得自我意识的情景,比如电影《终结者》。由于互联网是涉及整个现代社会的基本设施(比如我们的下水道系统、电力系统、电信、武器),具有自我意识的互联网就很容易控制这个社会。在这种情况下,我们是无助的。科学家们写道,这可能是一种“突生现象”(即,当我们集聚了足够多的计算机时,它们可能一下子跃升到下一个级别,无须外部的输入)。

然而,这好像囊括了所有的事,又好像什么都没说,因为中间的重要阶段都被忽略了。就好像是在说,只要道路足够多,高速公路就会突然具有自我意识。

但在本书中,我们给出了意识和自我意识的定义,由此我们可以列出互联网获得自我意识所需的步骤。

第一步,智能的互联网应该不断地对自己在世界中的位置建立模型。在原则上,这种信息可以从外部输入进互联网。这会涉及对外部世界的描写(如地球、城市和计算机),而这些都能在互联网上找到。

第二步,互联网要把自己置于这个模型之中。这种信息也很容易获得。这涉及对互联网的各个方面(计算机的数量、节点、传输线路等)以及它与外部世界的关系给出说明。

第三步是目前最困难的,需要为达成某个目标在未来不断模拟这个模型。这里我们遇到了巨大的障碍。互联网没有对未来进行模拟的能力,它也没有具体目标。即使在科学世界中,模拟未来也通常仅能在少数几个参数上实现(比如模拟两个黑洞的碰撞)。模拟包含互联网在内的整个世界完全超出了当今的编程能力。这可能包括纳入所有常识法则,所有物理学、化学和生物学规律,也包括纳入人类行为和人类社会的事实。

此外,智能互联网需要具有目标。今天,它只是一条被动的高速公路,没有方向,没有目标。当然,我们在原则上可以把一个目标强加给互联网。但是让我们考虑一下这个问题:我们可以制造出目标在于自我保护的互联网吗?

这也许是最简单的目标,但没人知道怎样为它编程。比如,这个程序会防止所有拔下插头停止网络的企图。目前,互联网完全没有能力识别出有什么能威胁它的存在,更不要说想出方法防止这些威胁了。(例如,有识别威胁能力的互联网需要认出各种企图,如关闭电源、切断通信线缆、摧毁服务器、阻断光纤和卫星连接等。另外,有能力预防这些攻击的互联网还要具备对每种情况的反制措施,然后在未来予以实行。地球上还没有计算机能够做到哪怕是其中最小的一点。)

换句话说,有一天我们可能会制造出具有自我意识的机器人,甚至是具有自我意识的互联网,但那一天十分遥远,也许要在本世纪末了。

但若假设这一天已经到来,有自我意识的机器人正行走在我们中间。如果这样一个机器人的目标能与我们的目标相融合,那么这种人工智能就不会造成问题。但如果机器人的目标与我们的目标不一样会怎么样呢?我们担心的是,人类会被具有自我意识的机器人超过,成为它们的奴隶吗?这些机器人由于拥有模拟未来的超强能力,它们可以预测出许多情况的结果,然后找出推翻人类的最佳手段。

控制这种可能性的一种方法是确保这些机器人的目标是善意的。我们已经看到,仅仅模拟未来并不够。这些模拟必须服务于最终目标。如果一个机器人的目标仅仅是保全自己,那么它就会防卫性地应对所有拔掉电源的企图,这对于人类来说可能意味着大麻烦。

在几乎所有的科幻小说中,机器人都是危险的,因为它们有接管一切的欲望。事实上,“机器人”(robot)这个单词来自于捷克语,意思是“工人”,首先出现在卡雷尔·恰佩克1920年的戏剧《罗素姆的万能机器人》(Rossum's Universal Robots)中,戏中科学家们制造出一个与人类长得相同的机械新物种。很快,上千个机器人开始从事卑贱的和危险的工作。但人类对它们很不友好,最后它们奋起反抗,摧毁了人类物种。虽然这些机器人接管了地球,但它们有一个缺陷:无法繁衍。戏剧的最后,两个机器人相爱了。所以,也许一种新的“人类”又将诞生。

电影《终结者》提供了另外一种更真实的情景,由军队制造的超级计算机网络“天网”控制了美国的核武器库。有一天,它突然醒来,有了知觉。军队试图关闭天网,但发现程序中有一个漏洞:网络有自我保护设计,而为达到这个目的,唯一的方法就是消灭问题的来源:人类。它发动了核战争,最后使人类成为反抗机器主宰的一群乌合之众。

机器人当然可能成为威胁。当今的捕食者无人机可以精准地消灭目标,而人是在几千英里之外通过操作杆控制它的。根据《纽约时报》的报道,开火的命令直接由美国总统下达。但未来捕食者可能会应用人脸识别技术,如果它对目标身份的确信程度达到99%,它就有权开火。无须人类的介入,它可以应用这项技术自动向任何符合信息档案的人开火。

现在假设这种无人机出现系统崩溃,它的人脸识别软件发生故障。那它就变成了流氓机器人,有可能杀死出现在视野中的所有人。更为糟糕的是,设想这样一个由中央司令部控制的机器人战队。如果中央计算机中的一个晶体管元件烧坏,出现故障,那么整个战队就可能进行持续杀戮。

如果机器人顺利运行,没有故障,但它们的编程和目标有一些无关痛痒的缺陷,这时会出现更为微妙的问题。对于机器人来说,自我保护是一个重要的目标,同样重要的是保护人类。当这些目标相互冲突时,真正的问题就来了。

在电影《我,机器人》(I,Robot)中,计算机系统认定人类有自我毁灭的趋势,他们总是不断进行战争,发动暴行,保护人类物种的唯一办法是接管人类,建立由机器主导的温和统治。这种目标冲突不是发生在两个不同目标之间,而是针对一个不现实的目标出现的。这些具有杀人倾向的机器人没有出现故障,它们从逻辑上推理出保护人类的唯一方法是接管社会。

解决这个问题的一种方法是建立目标等级。例如,帮助人类的愿望必须排在自我保护之上。电影《2001:太空遨游》采用了这个主题。电脑系统HAL 9000(哈尔9000)具有感觉能力,能够与人类轻松沟通,但HAL9000接收到的命令是自相矛盾的,在逻辑上无法完成。在尝试达成不可能的目标的过程中,它从平台上掉了下来,它疯了,而要遵从由不完美的人类发出的矛盾的命令,唯一的办法是消灭人类。

最好的方法也许是建立一套新的机器规则,要求机器人不能伤害人类,即使这与它们之前收到的指示相矛盾。它们的程序必须能够忽略命令中一些等级较低的矛盾,并总是遵守那些最高的法律。不过在最好的情况下,这也仅是一个不完美的系统。(例如,如果机器人的中心任务是保护人类,而不管其他目标,那么这就取决于机器人怎样定义“保护”这个词。它们对这个词的机械定义与我们的定义可能不同。)

一些科学家,如印第安纳大学的认知科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)博士并不担心这种可能性,他们没有表现出恐惧。在我对他的采访中,他告诉我,机器人是我们的孩子,所以我们为什么不能像爱自己的孩子一样爱它们呢?他告诉我,他的态度是我们爱自己的孩子,即使知道孩子将来会接管这个世界。

我采访了卡内基梅隆大学人工智能实验室前主任汉斯·莫拉韦克(Hans Moravec)博士,他同意霍夫施塔特博士的看法。在他的著作《机器人》(Robot)中,他写道:“我们思维的孩子(指机器人)从生物进化缓慢的步伐中走出来,将会自由地成长面对更大的世界中巨大而深刻的挑战……我们人类在一段时间内会从它们的劳动中获益,但……与我们自己的孩子一样,它们将寻找自己的命运,而我们这些老去的父母会默默地消失。”

与之相反,另外一些人认为这是一种非常糟糕的解决办法。也许在一切都还来得及时,如果我们对自己的目标和看重的事情做出改变,这个问题还是可以解决的。因为机器人是我们的孩子,我们可以“教导”它们和善些。

机器人是我们在实验室中制造出来的机械生物,所以我们制造出来的是杀手机器人还是友好机器人取决于人工智能研究的方向。很多研究资金来自于军方,专门用于赢得战争,因此可以确定的是确有出现杀手机器人的可能性。

不过由于全世界30%的商用机器人由日本制造,这就出现另外一种可能性:机器人可以在一开始就被设计成有用的玩伴和工人。如果由消费市场主导机器人科学研究,那么这个目标就有可能实现。“友好的人工智能”的理念是,从一开始,机器人制造者就应该编入使机器人对人类有益的程序。

在文化上,日本人研究机器人的方法与西方不同。西方的孩子在看到类似“终结者”那样暴躁的机器人时会感到恐惧,而日本儿童浸淫在神道教中,相信一切皆有神灵,即使机械的机器人也是如此。所以当日本儿童遇到机器人时,他们会兴高采烈地尖叫,而不是感到不自在。所以,这些机器人广泛地出现在日本市场和家庭中一点也不奇怪。它们出现在百货公司中,与你打招呼,出现在电视上,参与教育节目。日本甚至还有一部严肃的电视剧以机器人为主角。(日本接受机器人还有另外一个原因。这些机器人将会承担这个老龄化国家的护士任务。日本21%的人口超过65岁,而其老龄化的速度超过所有国家。在某种意义上,日本是一列蹒跚前行的破旧列车。这里有三个人口因素。第一,日本女性拥有这个世界上最长的寿命。第二,日本的出生率为世界最低。第三,日本有着严格的移民政策,99%的人口为纯种日本人。如果没有年轻的移民照料老年人,日本就只能依赖机器人护士。这个问题不仅限于日本,欧洲会是下一个。意大利、德国、瑞士和其他欧洲国家也面临着同样的人口压力。日本和欧洲的人口可能在本世纪中叶遇到最严重的缩减。美国也没有好到哪里去。本土美国公民的出生率在过去几十年中也快速下降,不过移民会使美国的人口在本世纪持续增长。换句话说,机器人是否能把我们从这三个人口噩梦中挽救出来,这可能是一个价值万亿美元的赌局。)

在制造进入个人生活的机器人方面,日本领先于世界。日本人制造出了可以做饭的机器人(一个机器人能够在1分40秒内做出一碗面条)。走进一家餐馆,你可以在平板电脑上点菜,然后机器人就快速行动起来。它拥有两个大型机械手臂,能够抓取碗、勺子和刀叉,然后为你准备食物。一些机器人厨师甚至能赶上人类厨师。

还有能够提供娱乐的音乐机器人。有一个音乐机器人真的拥有手风琴一样的“肺”,可以抽送气体,使其通过乐器产生音乐。还有机器人女佣。如果你把洗完的衣服仔细放好,它会在你面前把它们叠好。甚至还有可以说话的机器人,它有人工的肺、嘴唇、舌头和鼻腔。例如,索尼公司制造了AIBO(爱宝)机器人,它的形态像一只狗,如果你爱抚它,它可以记录下很多种情绪。一些未来学家预测,机器人产业有一天可能会发展到今天汽车产业的规模。

这里的重点在于不必要把机器人编程为摧毁型的或统治型的。人工智能的未来在于我们自己。

但是,一些人批评“友好人工智能”,认为机器人可能接管世界,并不是因为它们有侵略性,而是因为我们制造它们时太过粗心。换句话说,如果机器人接管世界,那会是因为我们把它们编成了具有对抗性的目标。

在我对麻省理工学院人工智能实验室前主任,iRobot(我是机器人)公司联合创始人,罗德尼·布鲁克斯博士的采访中,我问他是否认为机器有一天会接管世界。他告诉我,我们只需要承认自己也是机器就可以了。这意味着有一天,我们将能制造出与我们一样活着的机器。但他警告说,我们将不得不放弃我们具有“特殊性”的观念。

人类视角的这种变化始于尼古拉·哥白尼(Nicolaus Copernicus),他意识到地球不是宇宙的中心,它围绕着太阳转。接着是达尔文,他表明在进化中我们与动物是相似的。布鲁克斯博士告诉我,这个变化还会一直持续到未来,我们会意识到自己也是机器,不同点在于我们由“湿件”构成,而不是“硬件”。

他认为,承认我们也是机器将会成为人类世界观的一次重大改变。他写道:“我们不太喜欢放弃自己的‘特殊性’,因此,机器人真的有情感,或者机器人成为活着的生物,这样的观点我觉得很难被我们所接受。但在下一个50年里,我们会慢慢接受的。”

但是,对于机器人最终是否会接管世界的问题,他说这不太可能发生。这有多种原因。第一,没有人会偶然制造出一个想统治世界的机器人。他说,制造出一个能够突然地控制世界的机器人,就像某个人偶然制造出波音747喷气式客机一样。第二,我们有足够的时间阻止这种事情发生。在某人制造出“超坏的机器人”之前,他得先制造出“比较坏的机器人”,而在此之前,他还要制造出“不那么坏的机器人”。

他归纳他的哲学观念说:“机器人来了,但我们无须过分担心。这会有很多乐趣。”对于他来说,机器人革命肯定会到来,他预见到有一天机器人的智能将超过人类。唯一的问题是什么时候发生。但这没有什么可恐惧的,因为我们是它们的制造者。我们有权利选择制造出能够帮助我们的,而不是阻碍我们的机器人。

如果你问布鲁克斯博士,我们怎样与这些超级聪明的机器人共存,他的回答会十分直接:“我们将与它们融合。”随着机器人科学和神经假肢科学的发展,把人工智能植入我们的身体成为可能。

布鲁克斯博士注意到,从某种意义上说,这个过程已经开始。今天,大约有2万人接受了耳蜗移植,从而得到听觉能力。声音信号由微小的接收器接收,然后将声波转化为电信号,直接传入耳朵中的听觉神经。

同样,在南加利福尼亚大学和其他地方可以对盲人进行人工视网膜移植。一种方法是将微小的摄录机装入镜片中,把图像转化为数字信号,用无线的方式传入置于视网膜上的芯片中。芯片激活视网膜神经,把信息通过光学神经传到大脑的枕叶部分。这样,完全失明的人就可以看到所熟悉物体的大致图像。另外一种设计是把光敏感芯片装在视网膜上,然后把信号直接传到视觉神经。这个设计不需要外部摄录机。

这意味着我们甚至可以更进一步:增强日常的感觉和能力。通过耳蜗移植,我们可以听到之前从未听到的高频声音。我们已经可以用红外眼镜看到黑暗中的物体发出的特定类型的光,这些光在正常情况下,人眼是看不到的。人工视网膜还会增强我们的视觉能力,使我们看到紫外线或红外线。(例如,蜜蜂可以看到紫外线,因为它们要锁定太阳的位置才能飞到花床上。)

一些科学家甚至梦想有一天我们的外骨骼拥有动漫书中的超级能力:超强的力量、超强的感官以及超强的能力。我们会变成像钢铁侠一样的半机器人:正常人拥有超人能力和力量。这意味着我们也许不必担心智能发达的机器人接管世界。我们会与它们融合。

当然,这些都是遥远的未来。但一些为机器人没有走出工厂,没有走进我们的生活而沮丧的科学家指出,既然大自然已经创造出人类大脑,为什么不对它进行复制呢?他们的策略是把大脑分解,一个神经元一个神经元地厘清,然后重新组合起来。

但反向工程不仅仅是制作一张活的大脑的制造蓝图。如果我们能复制大脑中的每一个神经元,我们也许就可以把自己的意识上传到计算机中。这样,我们就可以摆脱终将死去的肉体。这已经不再是基于物质的心灵,而是无需物质基础的心灵了。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈