首页 理论教育 超人工智能:改变世界的新科技

超人工智能:改变世界的新科技

时间:2023-08-09 理论教育 版权反馈
【摘要】:现在去谈论超人工智能和人类的关系,不仅为时过早,而且根本不存在可以清晰界定的讨论对象。对于目前人工智能的迅速发展,将给人类带来更加自由、美好、幸福的生活,他们是持积极乐观态度的。认为超人工智能可能会统治和消灭人类,这是一些科学家和专家持有的看法。强人工智能系统,最终会被用来引导自己的智力发展。三是人类和人工智能融合成人机共生体。

超人工智能:改变世界的新科技

人工智能发展到今天到底有多“聪明”?人工智能未来会发展到什么程度?会不会出现更加厉害的超人工智能呢?超人工智能对人类是祸还是福?它会统治和消灭人类吗?这些毫无疑问都是人们非常关注的问题。

要回答这些问题,需要先弄清有关三个层级人工智能的基本定义。

1.弱人工智能(weakAI)。

也称限制领域人工智能(NarrowAL)或应用型人工智能(Applied AL),指的是专注于且只能解决特定领域问题的人工智能。今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴

因为限于弱人工智能在功能上的局限性,一般只是将弱人工智能看成是人类的工具,而不会将它视为一种威胁。总体来说,弱人工智能并不比我们使用的其他新技术更为危险。设想一下,人类在用电时、开车时或乘坐飞机时,不也要面对客观存在的风险因素吗?对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。

这就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的区别,只要严格控制,严密监管,人类完全可以像使用其他工具一样,放心使用今天的Al.

2.强人工智能(StrongAl)。

强人工智能又称通用人工智能(Artificial generalintelligence)或完全人工智能(FullAl),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智机。一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几个方面的能力:(1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能力。(2)知识表示的能力,包括常识性知识的表示能力。(3)规划能力。(4)学习能力。(5)使用自然语言进行交流沟通的能力。(6)将上述能力整合起来实现既定目标的能力。

基于以上几种能力的描述,可以想象一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人工作就行了,人类则获得完全意义上的自由,只是进行享乐,不再需要劳动。

3.超人工智能(Superintelligence)。

如果计算机程序通过不断发展,获得了像人类一样的意识、思维和情感,甚至比人类中任何人都更聪明,那么,这种人工智能就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。超越人类最高水平的智慧到底会表现为何种能力,今天的人类大多数只能从哲学或科幻的角度去加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅为时过早,而且根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能是一种不现实的幻想,还是一种在未来(这个未来是一百年,还是一千年、一万年)必然会到来的结局。我们根本无法准确判断,到底计算机程序有没有能力达到这一目标。

那么,当超人工智能到来之后,人类和机器人将会是一种什么样的关系呢?根据科学家和专家的预测可能出现三种情况:

一是乐观主义者。他们认为,当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑的情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法超越意识领域。因此,要使人工智能获得和人类一样具有意识、思维和情感是不可能的,或至少这是遥远的将来才有可能实现的。对于目前人工智能的迅速发展,将给人类带来更加自由、美好、幸福的生活,他们是持积极乐观态度的。

二是悲观主义者。认为超人工智能可能会统治和消灭人类,这是一些科学家和专家持有的看法。例如,美国硅谷大佬特斯拉创始人埃隆·马斯克在看到波士顿那款能跑能跳的“人形”机器人之后忧心忡忡地说:“我们马上就完了。这不算什么,几年后,机器人将快速移动,我们需要使用闪光灯才能看清它。”

马斯克说的那款人形机器人,已经进化到100%像人类的动作,跳跃、旋转、后空翻,样样都会!他于2017年11月24日接受采访时声称:我们确保人工智能安全的概率仅有5%到10%。“我们需要万分警惕人工智能,它们比核武器更加危险!”

世界知名的英国物理学家史蒂芬·霍金早就通过媒体告诉大家:“完全人工智能的研发可能意味着人类的末日。”他在北京2017年召开的全球移动互联网大会上致开幕辞承认,人工智能将给人类带来积极的益处,特别是有望消除疾病和贫困,也许甚至能修复工业化给自然界造成的一些伤害。但他也向中国提出了一个重大疑问:人工智能最终会帮助人类,还是可以想象它会毁灭人类?(www.xing528.com)

他说:“我认为生物大脑能实现的东西和计算机能实现的东西之间没有真正的区别”,称人工智能将能够越来越快地进行自我重新设计。他指出:“受限于缓慢的生物进化,人类无法与人工智能竞争并可能被其替代。”

据英国《每日快报》2017年12月14日报道,霍金说:“人工智能的全面开发可能预示着人类的终结。”他预测:“人工智能可能在接下来的100年中将人类取而代之”。

强人工智能系统,最终会被用来引导自己的智力发展。它会专注于提高自己的设计,重新改写自身软件,或者使用进化规划技术来创建、测试和优化改进其设计。这将带来“循环改进”似的迭代过程。每次修改后,系统都将变得更聪明、更能干。随着循环不断加快,最终的结果将产生“智能爆炸”,很可能最终产生出一台比任何人类都聪明十万甚至上百万倍的机器人。

如果这样的“智能爆炸”真正发生的话,肯定会对人类产生不可估量的影响。它很可能对我们的整个文明和经济造成很大的破坏。

三是人类和人工智能融合成人机共生体。

未来学家、谷歌公司工程总监雷·库兹韦尔也预见智慧机器会促成人类某种意义上的“灭绝”,但他认为这绝不意味着人类的彻底消失,而是被包容成为超级智能的机器,这种人类——机器共生体并非技术灾难,而是人类从自身生物学弱点中获得最终的解放。他还说,人工智能既会超过人类智慧,又能和人类紧密结合,形成人机系统,并称本世纪40年代中期,人机融合的奇点时刻就会来临。

社会科学家、历史学家尤瓦尔·赫拉利不担心“人工智能会战胜人类,像科幻小说中那种人工智能逐步产生了意识,开始叛乱,并试图杀死所有人类的事情不会发生”。

在尤瓦尔看来,人类和人工智能之间可能不会有“胜负”——这不是谁反对谁,或者两者对决谁赢的关系,非常有可能发生的情况是,人类与人工智能融合到一起,人类将成为部分有机、部分无机的组合体。

但问题是谁能够获得这种与人工智能融合的“进化权利”呢?尤瓦尔认为,随着人工智能越来越多地替代人类的工作,最终,世界上1%的人将成为掌控算法、通过生物技术战胜死亡的“神人”。他们是未来世界的主宰者,而另外99%的人则沦为“无用阶层”。他们已没有经济价值,也就没有了政治权力,到那个时候,他们将被整个社会系统彻底抛弃,这将是“21世纪最大的风险”。

人工智能的迅速发展,最终将全面超过人类,这已是许多科学家的共识,并预测在2060年前后这个奇点就会出现。当超人工智能到来之后,一方面对社会进步的积极意义将更加重大,但另一方面也可能对社会产生很大的危害。马斯克认为,人工智能对人类社会的威胁有短期和长期两种:“短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始‘叛变’。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。”

这就要求科学家应该始终把人工智能开发对社会负责的要求,放在技术进步的冲动之上。

人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。

在技术上加强对人工智能的控制是完全可行的。“人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,当如果识别出来是人类时,要自动保持距离,不能做出攻击性的动作,从力学幅度上予以约束。”中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。

除了设计和建造要遵循技术规范,还可以由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能和研究开发项目进行审核与评估,严格控制从技术转化为产品的环节。

我认为,人工智能的迅速发展,最终会全面超过人类是肯定的,因此,及时监管和控制人工智能可能出现的危害,是人类走上未来自由、美好幸福社会的关键,也是人机和谐共处的基础。为此,我国于2017年7月20日出台的《新一代人工智能发展规划》对这方面有明确的阐述。

《规划》在第一部分战略态势中指出:“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律和社会伦理、侵犯个人稳私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。

在第五部分保障措施中,建立人工智能安全监管和评估体系,进一步明确规定:“加强人工智能对国家安全和保密领域影响的研究与评估,完善人、技、物、管配套的安全防护体系,构建人工智能安全监测预警机制。加强对人工智能技术发展的预测、研判和跟踪研究,坚持问题导向,准确把握技术和产业发展趋势。增强风险意识,重视风险评估和防控,强化前瞻预防和约束引导,近期重点关注对就业的影响,远期重点考虑对社会伦理的影响,确保把人工智能发展规划在安全可控范围内。建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。加强人工智能网络安全技术研发,强化人工智能产品和系统网络安全防护。构建动态的人工智能研发应用评估评价机制,围绕人工智能设计、产品和系统的复杂性、风险性、不确定性、可解释性、潜在经济影响等问题,开发系统性的测试方法和指标体系,建设跨领域的人工智能测试平台,推动人工智能安全认证,评估人工智能产品和系统的关键性能。”

然而,必须看到,人工智能技术的研发不是那一个国家的事,是全球许多国家的事,因此,对人工智能的管控要各个国家特别是这方面技术领先的国家进行合作才行。2019年6月8日,世界主要经济大国首次就对待人工智能的原则达成一致。二十国集团(G20)国家在日本筑波市举行的部长级会议表决通过的一份共同声明中说,使用或研发人工智能“应该尊重法律原则、人权和民主价值观”,人工智能系统在整个使用周期中“应该是稳固和安全的”,且不应构成“无法应对的安全风险”。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈