首页 理论教育 机器智能的潜在危害与挑战

机器智能的潜在危害与挑战

时间:2023-06-23 理论教育 版权反馈
【摘要】:在此次活动前,他曾与几位顶尖科学家和美国企业家埃隆·马斯克签署了一份公开信,同样表达了对未来人工智能对人类构成威胁的担忧。雷·库兹韦尔指出,即将到来的机器人革命将是最具威力的革命,具有智能的机器人脱胎于人类,经过重新设计后,将远远超过人类所拥有的能力。

机器智能的潜在危害与挑战

在《未来战士》《二十二世纪杀人网络》等电影里,有机器人世界追打人类的镜头。相信当时看过这些电影情节的人的内心感受是复杂的。不过,缘于那些情节与现实生活还存在着相当大的差距,因而人们所持的基本上都是不置可否的态度。然而,随着人工智能技术的不断突破,机器人已由当初极其有限的“领悟力”转变为能够识别人类面部表情并与人进行情感交流的一个“活体”。本来,机器人面世后,就因为它们通常都是某一方面的行为专家,具有人类个体所不能企及的特长而让人类刮目相看。现在,机器人具有了“情感”,具备了思索能力,那么,在将来的某一天,它们可能会像人类一样,自我设计,自我制造,以致于摆脱人类的控制,将人类置于危险的境地。

1.霍金的告诫:当心人工智能的反噬

会不会出现人工智能反噬人类的情形呢?这是现代人杞人忧天还是有些人的危言耸听呢?可以说,一切都未定论。在当今科技领域,包括一些顶尖人工智能专家,都认为人工智能会反噬人类,人类发展人工智能,将会让人类踏上不归路。享誉世界的英国天体物理学家、英国剑桥大学著名教授史蒂芬·威廉·霍金就是持这种观点的人员之一(图6-3)。他发出警告:“完美人工智能的开发,便意味着人类的终结!”

图6-3 霍金

2015年10月初,在Reddit网站举行的“问我任何问题”(Ask Me Anything)活动环节中,霍金教授在回复提问时,再次重申了他一直坚持的关于人工智能的观点:“人工智能技术,未来必将对人类构成威胁。”不过,他同时强调,这其中最大的危险不是机器人会有计划地摧毁人类,而是它们完全抛弃了人类,具有了自主决策的能力。他认为,机器人不可能会产生与人类敌对的意识,但它们在追求自身设定的目标时,会对人类的利益造成伤害。他说:“真正的风险不在于敌意,而在于能力。超级人工智能机器人将极善于达成自己所设定的目标,而如果它所设定的目标与我们的目标并不相互吻合,那么我们就有麻烦了。举个例子,你有时候踩死一些蚂蚁,但这并非出于你对蚂蚁的主观恶意,但如果你恰好准备在某个地区修建一个水电站,而那片地区正好有一个蚁穴,那么对于蚂蚁来说,这可真是个坏消息。”也就是说,机器人带给人类的伤害,很大程度上属于无意伤害。这也就意味着人类由地球上万物之灵的位置上跌落下来,沦落为由自己一手制造出来的机器人占主导地位之下的二等公民。因而,霍金揭示道:“不要把我们人类自己放到那些蚂蚁的位置上去。”

霍金认为,人工智能机器人因具有了情感,最终会进化出对生存的渴望。他为此说道:“未来一台高度先进的人工智能设备将逐渐发展出求生的本能,并将努力获取实现其自身所设定目标所需要的资源。因为生存下来并获取更多资源将能够增加其实现其他目标的机会。对于人类而言,这将导致生存问题的发生,因为我们的资源将会被掠夺。”他指出,随着人工智能技术的发展,智能机器人具备了人类一样的生存能力,它们就会不再依赖人类,而是会自主进行自我完善和自我升级。这时机器人世界就会出现“技术大爆炸”。最终,机器人的技术能力就会远远超越人类,最终把人类越甩越远,就如同现阶段人类的技术能力远远超越蜗牛一样。

不过,霍金同时也表示,就目前人工智能技术发展现状来说,与研制出和人脑功能相当或远超人脑功能的机器的要求还存在着相当遥远的差距。他说:“当这件事最终发生时,将成为人类历史上发生过的最好或是最坏的事,因此把这个问题弄清楚将具有极大的价值。我们或许将花上几十年的时间才能找出问题的答案,那么就让我从今天开始启动这项研究,而不是拖到超级机器人即将被启动的前一天晚上。”

霍金参与Reddit网站举行的“问我任何问题”活动,一共获得超过9 000条的提问和评论,是该网站举办的同类活动中获得关注度较高的一次。由于工作和身体的原因,他在四个月之后才有时间回复网民的提问。在回复的问题中,大部分问题都涉及人工智能领域,而在回复中,他频繁地表示了自己的担忧。在此次活动前,他曾与几位顶尖科学家和美国企业家埃隆·马斯克签署了一份公开信,同样表达了对未来人工智能对人类构成威胁的担忧。他称,在下个世纪,人类的能力将会被机器人超越,因而,科学家务必要确保人工智能的未来目标是与人类的发展目标相一致的。

可以想象,机器人掌握了人类的心理和应对模式之后,就可以轻易控制和塑造人类情感。届时,在机器人高人一等的优越感面前,具有强烈自尊的人类会不会感到无地自容而整体消亡呢?

2.科技巨头对人工智能的担忧

2005年,美国有一本奇书出版——《奇点临近:当人类超越生物学》。作者雷·库兹韦尔预计21世纪30年代人类大脑信息上传成为可能;到2045年奇点来临,人工智能完全超越人类智能,人类历史将彻底改变。

但是在人工智能快速发展的时代,人们也越来越担忧人工智能会是毁灭人类的“元凶”,与发展其他技术相比,发展人工智能要更加小心谨慎。

雷·库兹韦尔指出,即将到来的机器人革命将是最具威力的革命,具有智能的机器人脱胎于人类,经过重新设计后,将远远超过人类所拥有的能力。

特斯拉CEO埃隆·马斯克在麻省理工学院航空航天系2014年百年论坛上表示,他对计算机未来的发展,尤其是人工智能技术遭到的恶意应用感到担忧。马斯克在一条社交网站消息中重申了这方面的担忧,称“人工智能可能比核技术更危险”。

在马斯克表达了对人工智能的担忧后,比尔·盖茨也在红迪论坛(Reddit AMA)上表示了自己的担忧。盖茨说:“我对人工智能感到担忧。刚开始,机器人会为人类做很多工作,并不具备超智能。如果人类能够把握好尺度,这对人类是有百利而无一害的。但是几十年后,超智能将成为一个威胁。我赞成马斯克担忧人工智能,我不明白为什么有些人会不担忧。”

美国麻省理工学院物理学家马克斯·泰格马克在参加一个电台节目时说:“发展人工智能就像是发展武器,在首次使用时,我们真的需要慎之又慎,因为我们很有可能只有这一次机会。”

微软研究院实验室主管埃里克·霍维茨说,人工智能技术可以拯救成千上万人的生命,无论是通过防止车祸还是避免医疗上的人为失误。但对人类而言,发展人工智能的一个重要隐患是创造了一种能够不断完善自己并最终极有可能摆脱人类控制的机器。

美国加州大学伯克利分校计算机科学家斯图尔特·拉塞尔说,不少人认为聪明一定是好的,会让事情变得更加美好。但实际情况是,并非所有的事情都是如此。就像希腊神话迈达斯国王的故事一样,聪明的迈达斯曾想将他所能碰到的东西都变成黄金,但获得这一能力后他很快就后悔了,因为就连他的食物、水,甚至还有他的女儿也都变成了黄金。最终他接受建议,在河中沐浴后才得以解脱。拉塞尔说,越来越聪明的机器极有可能不会沿着人类的期望发展。实际上,能够自我学习、自我完善的它们,很有可能在目标上与创造它的人类出现不一致。例如,核聚变核裂变将近乎无限的能量储存在一个原子当中,但不幸的是,我们获得这些知识后的第一件事情就是制造了一个超级杀人武器——原子弹。“如今,99%的聚变研究都是受到严格管制的,人工智能也将走上同一条道路。”

还有一些专家认为,人工智能是一个比核弹危险万倍的事情。核弹放在那里,只要没有人启动,它就不会自动爆炸,即使炸了,也威胁不到人类的统治地位。可是人工智能不一样,人类的智能进化速度受限于肉体,目前没办法很快地提升。而人工智能不但是高速公路,而且还是加速的。一旦有了自我意识,就能自我改进,快速地把人脑智力甩在身后。如果人工智能真的去思考如何摆脱人类的控制,其方案会比我们的更加隐蔽,更加难以察觉。因为那时人工智能的智商高于人类,它们会想出更巧妙的办法。

科研人员都在全力地研究拥有自我学习、自我改进功能的人工智能,这种行为就像在开发更高速汽车,却不考虑安装刹车系统,只考虑人工智能可能带给我们的便利,却不考虑带给我们的危险。

应该制定比核扩散严格百倍的国际公约,在确保不失控的前提下使用人工智能。在人类自身智能高速提升以前,不允许任何拥有“自我意识”的人工智能面世。无论技术能力可以做到哪一步,必须把人工智能的能力限制在动物的水平,否则,人类将在地球上失去统治地位。

不过也有人对人工智能的未来表示乐观。例如以色列历史学家、《人类简史》一书作者尤瓦尔·赫拉利认为,从经济政治到个人生活,未来的人工智能都将发挥重要作用,如图6-4所示。正因如此,人类必须从现在开始给此类技术“立规矩”。赫拉利强调,在这方面,政府或其他权威组织必须扮演主导角色,而不能将决策权完全交给市场,否则,可能带来“非常混乱”的结果。

图6-4 尤瓦尔·赫拉利发表对人工智能的看法

谈及新技术对人类未来的颠覆,赫拉利则表示,科幻电影里那种人工智能消灭人类的设想,目前来看还是没有根据的。“智能和意识是两个非常不同的概念。在智能方面,现在的人工智能技术已经达到很高水平,但它们仍没有意识,”赫拉利以阿尔法狗为例指出,“它的智能水平令人钦佩,但它没有焦躁、喜悦等情绪”,“并没有迹象表明人工智能正在向有意识的方向发展”。

不过,赫拉利对人工智能并非没有担忧:“相比机器人杀死人类,我更担心人工智能带来的数十亿人失业问题,以及人数众多的‘无用阶层’的产生。”赫拉利说,未来二三十年,在发达经济体内,约半数工作岗位将被人工智能取代。另外,有能力操控人工智能的少数人可能将占据大部分社会资源

尽管未来会有很多问题待解决,但“我们有理由保持乐观”。赫拉利认为,从历史上看,人类总能直面挑战。比如20世纪五六十年代,人们曾担心核武器会毁灭地球,但最终,人类用智慧解决了这一问题,保持了总体和平的形势。

有一些人对人工智能的未来持乐观态度。他们认为,人工智能只是人的身体、智力的一种工具性延伸,目前不断增强的也只是这种工具性,人工智能不像人类拥有从无到有的发明创造能力。现今出现的机器人战胜人类的各种场景,不管是棋艺还是自动驾驶技能,都是在人类现有能力基础上,对人类知识、信息处理方式所进行的一种优化。即使是情感机器人,也只是对人类的表情和语言特征进行程序化应对,并不能说明机器人拥有了同人类一样的情感。因而,人工智能就好比战士手中的武器,它能提升战士的攻击力,但武器的危险性取决于武器的使用者。

从技术和现实两个层面来看,人工智能所放大的只是人类现有的能力。受到特定条件的限制,它们不具备大规模自我升级和进化的能力。因此,我们也就不用担心它们会自己建厂,自我加工,自我提升脑力,自我升级。从人类发展人工智能的目的性上来说,人工智能也具有可控性。

综合各方观点,无论是霍金等专家的危害论,还是相反的人工智能可控论,人工智能最终是天使还是魔鬼,完全取决于开发和应用技术的人。只要人类自身能约束好自己,未来的人工智能就一定会沿着服务于人类的方向前行。

3.机器信誉问题

这个世界确实已经变了,现在人们对机器更有信心。

当你在山区的公路上开车时,GPS定位和导航软件并不完全可靠。当徒步爱好者向山里出发时,即使有人非常熟悉路线,也必须打开最流行的“北斗导航系统”。如果导航系统停止工作,他们会停下。即使面对铁一般的证据,当导航仪带错了路或设计了一个不合理的路线时,他们也还是会为它辩解。

也许我们正在朝着这个方向发展:人们认为软件可以创造奇迹,而事实上,大多数软件都会犯非常低级的错误。普通用户对软件工具的信心远远超过开发者对它的信心。

如果向导有一次指错了路,很长一段时间里他都不会被信任;如果导航系统出错,多数用户会简单地认为这是偶然的故障,并会继续信任它。人们对机器犯错的包容度似乎更高。

人们往往更愿意相信机器,而不是人。他们更相信导航系统,而不是在那个地区生活了一辈子的人。

生活中的事例证明,我们没有自己想象的那么聪明,而是很容易被人愚弄。我们使用电脑时,似乎变得更加容易上当受骗。想一想“垃圾邮件”有多么成功,你最喜欢用的搜索引擎和社交媒体上的广告有多么成功。如果我们聪明一点,这些搜索引擎和社交媒体很快就会关张歇业。它们如日中天,是因为有数百万的人点击这些广告链接。

软件变得更“智能”,人们会更加信任它。不幸的是,软件变得更“智能”,对人们的危害力也会变得更强。它不必“故意”作恶:可能仅仅是软件工程师一厢情愿推出新的软件版本时遗留的软件缺陷所致。

试想一下,机器播报虚假新闻,例如,某种传染病在城市蔓延,夺去了无数人的性命。不管最有声望的记者怎样辟谣,人们都开始争先恐后地逃离城市。恐慌情绪在城市间迅速蔓延,并被数百万民众的恐慌行为放大。

图6-5 无人机战场突袭

无人机袭击恐怖分子得到大多数公民心照不宣的支持,如图6-5所示。这种支持不仅是出于军事上的考虑(无人机袭击减小了步兵奔赴危险战场的概率),还有一个原因是人们相信无人机袭击定位精准,主要用于打击恐怖分子。

4.机器的速度问题

未来的计算机速度将如此之快,以至于控制它们本身就是一项大工程。人们已经无法控制计算速度快于人类大脑百万倍的机器,在可预见的未来,这个速度将持续增长。

人们编写算法,并把它输入机器。机器的计算速度要快于最聪明的数学家。当算法引发了一些自动动作(比如购买股市股票)时,人类被排除在循环之外,只能被动接受结果。当成千上万台机器互相交互并且成千上万种算法(人类完全理解每一种算法)以惊人的速度运行时,人类不得不相信计算的力量。是速度成就了“超人类”智能,但这不是无法理解的智能,而是远远“逊色”于人类、计算速度非常快的智能。危险在于没有人能确保该算法设计正确,尤其是当它与众多算法交互时。

这个问题将通过引入限速的方式来解决:只允许算法在一定的速度范围之内,只允许“警察”(防止算法引发问题的看门人算法)的速度更快,如图6-6所示。

5.妖魔化常识

聪明的人类创造的机器有一些令人不安的因素。它担负着一些特别的使命,不按照人类的套路出牌。我们在生活中越来越常见到一种“愚蠢”的机器:它的规则不容人类智能干涉。

图6-6 网络警察

美国旧金山的湾区以多雾而著称,夏天也很凉爽,尤其是晚上。这是世界上科技最发达的地区之一,有很多负有盛名的大学。电脑设定好的程序是只要还有人在工作,不管外面有多冷,校园里的空调照开不误,非常浪费能源,但是没有人知道如何让机器停止这样做,因为重置大楼里的温控器非常难。

这就是让机器管理世界的潜在危害性。如果在非常寒冷的晚上,室内空调依旧吹着冷气,这样的温控器不算“智能”。作为比机器聪明的人类,虽然创造了这些机器,却没有按照常识控制它的行为。再比如电脑控制的汽车,即使它们运行良好,电脑控制的设备和系统做出的决定却往往违背人类的常识。充斥人类社会的数百万台机器也可能会做出违背人类常识的决定,而人类却只给这些机器设定规则并放任它们运行,这样会让人类失去对常识的判断力。(www.xing528.com)

6.你是别人盈利的工具

机器智能的另一个危险是运用计算能力作为销售工具的趋势越来越不可挡。究其原因,人们愿意接受电子商务网站的条款和条件,这些公司非常擅长掩饰他们收集到用户信息后动过的手脚。同时代最优秀的人才都在思考如何让人们点击广告——利用收集到的所有数据,不放过任何蛛丝马迹。投入这项工作的不仅有最优秀的人才,还有最先进的机器。为了采取对用户更有针对性的销售策略,人工智能技术已经被用来收集用户信息(以前被称为“监视用户”)。

万维网的初衷并不是要创造一个那样的世界:智能软件控制你上网的一举一动,并使用它来为你量身打造上网体验;而可怕的是,它正在朝着这个方向发展。计算机科学正在将你的生活转化成他人的商机。

你可能会认为你换了一辆车是因为你想要一辆新车,如果换一个角度看待这件事:是车让你花钱,然后汽车企业可以用这个钱生产更多更好的车。

从某种意义上说,是物品主导了人类的消费,而不是人类为了自己的需求去购买和消费物品。消费者从属于物品,为它们的扩张和统治铺路。

最终,物品将演变成空间站和外星殖民地。为了扩张到地球之外,开始殖民化宇宙的其他部分,寻求主宰一切存在的物质,直到宇宙中的所有物质都被转变成物品。

我们甚至把食物变为物品,因为我们吃包装食品的时候越来越多。过去40年里食品系统的变化比前4万年还多。

鞋、冰箱、手表和电子产品是历史的真正主角,其他的一切只是它们谱写的长篇史诗的注脚。

7.责任问题

人工智能技术的社会应用迅速改变了人类的生存环境,重塑人的行为,也不断挑战诸如隐私、责任等概念内涵及其既有策略。比如“责任”,比较典型的是自动驾驶系统的责任认定。

2018年3月18日晚10点左右,伊莱恩·赫茨伯格(Elaine Herzberg)在亚利桑那州坦佩市骑车横穿马路,被一辆自动驾驶汽车撞倒,不幸身亡。虽然车上有安全驾驶员,但当时汽车完全由自动驾驶系统(人工智能)控制。和其他涉及人与AI技术交互的事故一样,这起事故提出了一系列的道德和原始法律问题:开发该系统的程序员在防止该系统夺人性命方面负有怎样的道德责任?谁应该为赫茨伯格的死负责?是坐在驾驶位上的那个人吗?是测试那辆汽车的公司吗?是该AI系统的设计者吗?还是车载感应设备的制造商?

计算机正开始在我们的道路和高速公路上做事关生死的决定。假设你坐在一辆自动驾驶汽车上读报纸,两个孩子突然冲进了你前面的路上。汽车会决定撞上这两个孩子,还是跟对面车道上的车迎面相撞,还是撞上另一辆停着的车?计算机有几毫秒来决定采取哪种行动,而所有这些行动,都有可能导致人受伤或丧命。

这种生死攸关的情景,伦理学家称为“有轨电车难题”(trolley problem),如图6-7所示。

你要在不同的方案之间进行选择,而选择的结果决定了谁生谁死。计算机会计算出,撞上两个孩子可能会害死他们,但安全气囊能把你救下来;计算机或许也计算出,跟迎面而来的汽车相撞,碰撞更猛烈,可能会害死你,也害死对面车里的乘客;最后,它可能还计算出,跟停着的车相撞,有很大概率会害死你。这个结果,死的人最少,但那个不幸的受害者是你。

尽管这一选择难题引起了广泛的关注,但就开发符合伦理道德的自动驾驶汽车而言,它只占了问题的一小部分。人们还要面对其他许多伦理问题,这些问题里有不少会出现得更为频繁。人类驾驶员是经常违反法律的,闯黄灯、占用人行道、通过超速来摆脱危险路况……那么自动驾驶车辆能否以这种方式违反法律呢?如果可以,违反到多大程度合适呢?另一个引发热议的伦理问题是,我们是否应该开发一套系统,让人类驾驶员临时收回控制权呢?有证据表明,人类很难做到这一点,甚至可能没办法迅速重新获取背景认知。我们该怎样保护自动驾驶汽车有可能难以感知的其他道路使用者(如骑自行车的人、行人等)呢?自动驾驶汽车是否应该加上明确的标识,好让其他道路使用者保持恰当的谨慎态度来对待它们?我们应该为自动驾驶车辆准备专用车道吗?如果有一天,自动驾驶汽车变得比人类操纵的汽车更安全,还应该允许人类开车上路吗?一旦汽车真正实现自主,这意味着,如果发出了对某人的逮捕令,那么下次那个人进入一辆自动驾驶汽车时,车门会自动上锁,汽车会把他送到最近的警局。或者,要是车里的人突然发病了,该怎么办?车辆能否以每小时110 km的速度在城市道路上飞奔,把人送往医院,而其他所有车辆都自动向两边分开,让出一条道路?这样的规则设计合理吗?符合人类社会的制度规范吗?

未来10年,观察社会怎样适应自动驾驶汽车,怎样迎接它们带来的挑战,一定非常有趣。对于将来我们应该怎样应对人工智能提出的其他道德挑战,自动驾驶汽车领域有可能充当试验田。目前的证据只能说明,我们正梦游着走进这一光明的未来。目前大多数政府对自动驾驶车辆所采取的立场,是把太多的责任都交到了开发相关技术的公司手里。可以理解,各国都不希望扼杀技术进步,也都想要从价值数万亿美元的自动驾驶车辆制造产业里分一杯羹。眼下的汽车巨头,如通用、福特和丰田,不见得能在这场比赛中赢得了百度、小鹏、特斯拉、苹果和英伟达等后来者。同样地,让自动驾驶汽车上路,在伦理道德上势在必行,它们每年能避免数千人因交通事故丧生,但在这股匆忙往前跑的势头里,务必要谨慎。

图6-7 有轨电车难题,该牺牲哪条轨道上的人?

空中交通是一个很好的类比。在100年前这一技术的萌芽岁月,飞行很自由,事故司空见惯。飞行很危险,只有勇敢的人才敢飞。但政府很快就插手进来,对飞行本身和飞机制造商进行监管,设立了从事故中学习的机构。政府制定法律来规范飞行及飞机标准。如今,飞行成了最安全的交通方式之一。自动驾驶汽车也应以这样的终点为目标,但如果政府不强调监管,恐怕达不到目的。

我们不允许制药公司随心所欲地在一般公众身上检测产品。同样,也不应该让技术公司在没有强力监管的情况下,随心所欲地在公路上测试自动驾驶车辆。那么,我们为什么会允许汽车厂商自动上传未经验证的软件更新呢?只要具备商业可行性,任何道路测试中所学到的教训,都应与其他开发商共享。国家或国际机构需要调查自动驾驶车辆所卷入的事故原因,每次碰撞都能为自动驾驶车辆带来进步。

8.算法歧视

另一个可能的伦理挑战是算法歧视。算法有可能有意无意地歧视特定社会群体。谷歌等公司一直在鼓吹算法很好、算法不歧视的神话。谷歌的行为准则开篇就说:“我们会尽力为用户提供不偏不倚的信息,关注其需求,为之带去最优秀的产品和服务。”而他们为你提供不偏不倚信息的途径,就是靠盲目挑选最优结果的算法。然而算法真的有可能歧视,尤其是如果这些算法是从数据中学习的。

2015年,卡内基梅隆大学的一项研究发现,较之女性,谷歌为男性提供的高薪工作广告更多。谷歌使用的其他算法也内嵌了歧视。

谷歌的自动完成功能为“医生”一词给出的选项是:

医生危险

医生比教师好

医生没用

医生心眼坏

算法返回的上述选项,可能对医生这个职业充满偏见。其他任何搜索引擎里也都可以发现类似的偏见。这些算法本身的确没有任何明确的偏见,但不管我们是否意识到,我们提供的数据令它们做出了带有偏见的决定。

由于缺乏透明性,机器在做决定时可能会考虑人类认为不恰当的因素,从而导致歧视。

亚马逊曾经开发了一款招聘工具,用来识别某家公司想要招募的软件工程师。很快,该系统开始歧视女性,被亚马逊弃用。ProPublica公司曾经分析过一款商业软件,该软件的作用是预测罪犯再次犯罪的可能性,旨在帮助法官做出更明智的量刑决定。

很明显,人们都需要正视算法歧视问题,各国政府有着重要的监管之责。

9.结论的不可解释性

想象一下这样的情景:你的孩子回家找你,要求你给他零花钱,让他和朋友一起去看电影,你允许了。一周后,你的另一个孩子带着同样的要求来找你,但这次你拒绝了。这就产生不公平和偏袒的问题。为了避免受到偏袒的指责,你要向孩子解释,他必须完成家庭作业,才有资格获得零花钱。假如没有任何解释,家里一定会有紧张的气氛。

现在想象一下用一个人工智能系统取代你的角色,这个系统已经收集了成千上万个处于类似情况的家庭的数据。通过研究其他家庭的零花钱情况,得出结论:一个孩子应该得到零用钱,而另一个孩子不应该。但人工智能系统无法解释其中的原因,它衡量了你孩子的头发颜色、身高、体重及其他所有它能获得的属性,以便做出对其他家庭似乎最有效的决定。可是既然人工智能无法解释原因,那又如何判断人工智能的结论是有效的呢?这就是人工智能工具存在的“黑箱”般的不透明性所带来的问题。人工智能的运算逻辑不仅不为参与者所知,甚至也不为程序的创造者所知。随着人工智能为我们做出决策,决策的透明度和可解释性可能会变差。数据驱动决策的不可知性阻碍了批判性地参与决策过程的能力。

10.致命性错误

与人类相比,人工智能系统抗干扰能力(鲁棒性)差,推广能力弱,甚至可能犯大错。“基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。与人类不一样,它不会举一反三,更不会‘知其所以然’。使用这样的人工智能系统需要十分小心。”人工智能产品完成单项任务很厉害,但遇到复杂情况时却没那么厉害。目前人工智能产品还只是辅助人工作的一个工具,还不能自主进化和决策。人工智能威胁论所指的“强人工智能”的到来还比较遥远,现在发展的多是擅长完成单项任务的“弱人工智能”。人工智能全面超越人类智能并出现自我意识是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误,怎么办?例如发射所有核弹毁灭地球,如图6-8所示。

图6-8 人工智能决策失误毁灭地球

11.隐私泄露

人工智能提出巨大伦理挑战的另一个领域是隐私。前CIA(美国中央情报局)技术分析员爱德华·斯诺登揭露的内幕提醒我们,许多人意识到人工智能侵入隐私的可怕潜力,如图6-9所示。事实上,情报机构只有通过人工智能才能筛选收集到的海量数据。

图6-9 前CIA(美国中央情报局)技术分析员爱德华·斯诺登因泄密而被通缉

一如既往,这是一把双刃剑,在反恐战争中,我们或许希望能够使用智能技术找出藏在暗处的恐怖分子。另外,我们不希望别人知道自己所有的想法。让问题变得更复杂的是,很多人早就习惯了向一些社交软件(QQ、MSN等)无偿又实时地提交有关自己的宝贵信息。

目前许多保护个人隐私的方法正在开发当中。随着设备变得更智能,可以把更多的计算从云端推送到设备上。这样,或许就无须与其他任何人分享个人信息了。此外,还有“差分隐私”等新设想。例如,可以为数据库添加“噪声”,保持查询答案不变,但无法再识别个人。

12.错误身份

把机器错认为人,是很多科幻电影反复出现的一个主题。在经典电影《银翼杀手》里,哈里森·福特饰演的里克·狄卡跟踪并摧毁了在外观上与人类无异的逃脱复制人,如图6-10所示。然而,电影留下了一个开放结局,那就是里克·狄卡本身有可能就是个复制人。最近,电影《机械姬》把焦点放在了一种特定类型的图灵测试上,机器人艾娃努力伪装得足够像人,骗人帮自己逃脱。而在史上第一部科幻电影《大都会》里,机器人乔装成了名叫玛利亚的女性,造成了工人的暴动。

因此,将来的某个时候,我们有可能被迫要应对机器被误认为人类带来的冲击。考虑到计算机“通过了”图灵测试的有限形式,可以说,这样的未来歧视已经到来了。人试图伪装身份的时候,总有许多危险在等着我们。如果机器模仿我们信任的人,会发生什么?意外说不定会转瞬即至。如果我们对机器产生了社会依附感,会怎么样?前面有一大片问题的雷区正等着我们。

请思考:

你觉得人工智能还可能带来哪些危害?举例说明。

图6-10 电影《银翼杀手》里,哈里森·福特饰演的里克·狄卡

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈