首页 理论教育 深度解析:人工智能的道德问题

深度解析:人工智能的道德问题

时间:2023-06-23 理论教育 版权反馈
【摘要】:近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。

深度解析:人工智能的道德问题

图6-2 《纽约客》杂志封面——人类机器人乞讨

控制论之父维纳在他的名著《人有人的用处》中曾经谈到自动化技术和智能机器,得出了一个结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的预言,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面,如图6-2所示。人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。

与模拟人类大脑的思维方式不同,智能增强(简称IA)技术使得人工智能发展出一种纯粹机器的学习和思维方式。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,不再模拟真实的人的大脑和思维的方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念。例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念与人类自己理解的猫的概念之间是否存在着差别,不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当讨论打败李世石的阿尔法狗时,已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定式丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟模拟人类大脑和思维的人工智能尚具有一定的可控性,但基于机器思维的人工智能,可控性就值得怀疑了,因为根据与人工智能对弈之后的棋手的说法,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

技术进步本身无法解决AI的深层次根本性问题:算法的设计哪怕再周全,也必须根据现实世界的数据来做出决定,但现实世界是有缺陷的、不完美的、不可预测的、特异的。(www.xing528.com)

人们意识到,在系统投入使用之前,必须把道德关切纳入考量。这种认知促使伦理学课程被正式整合进哈佛大学的很多计算机科学课程。

近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。

请思考:

1.你觉得人工智能会替代人类吗?

2.未来人与机器的关系应该是怎样的?

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈