首页 理论教育 规则设计的阶段性分析与优化

规则设计的阶段性分析与优化

时间:2023-07-05 理论教育 版权反馈
【摘要】:[10]否认人工智能技术进步在不同阶段对民事法律责任制度造成冲击的差异,不区分人工智能民事法律责任规则设计的阶段性,会造成无争议的争议。目前,关于人工智能时代民事法律责任规则设计的必要性以及责任功能、责任性质、责任归属等问题的讨论大多因为未区分规则设计的阶段性而犹如盲人摸象,若欲将某一阶段的规则设计通过无限放大或以偷梁换柱的方式转移至另一阶段则会出现以偏概全或偷换概念的逻辑错误。

规则设计的阶段性分析与优化

人工智能技术的研发和应用具有阶段性特征,不同阶段人工智能的自主性、意向性和不确定性的程度及表现形式存在差异,重构民事法律责任规则体系的必要性以及民事法律责任的主体、类型和分配亦有所不同。“人工智能技术是由弱变强的,有明显的阶段性,法律不应跳过任一阶段。”[10]否认人工智能技术进步在不同阶段对民事法律责任制度造成冲击的差异,不区分人工智能民事法律责任规则设计的阶段性,会造成无争议的争议。目前,关于人工智能时代民事法律责任规则设计的必要性以及责任功能、责任性质、责任归属等问题的讨论大多因为未区分规则设计的阶段性而犹如盲人摸象,若欲将某一阶段的规则设计通过无限放大或以偷梁换柱的方式转移至另一阶段则会出现以偏概全或偷换概念的逻辑错误

(一)编程设计阶段

在编程设计阶段,人工智能的研发者和使用者对人工智能产品具有完全的控制力。人工智能产品按照研发者或使用者设计或设定的程序运行,在决策或行为方面不具有自主性,缺乏进行独立判断的能力。人工智能产品与其他的物在本质上并无区别,只是人类认识或改造世界的工具。“这一阶段的人工智能只有简单的功能意义而没有任何独立机器学习的可能性,所以应将其导致的损害责任视为产品质量责任。”[11]

(二)机器学习阶段

“机器学习”和“深度学习”等方式推动了人工智能技术的发展与进步。拥有自主学习能力的人工智能产品虽然仍未摆脱研发者或使用者的控制,但是,其能够在一定范围内进行独立思考和判断。滥用人工智能的法律人格或地位,将其作为研发者或使用者的“替罪羊”的现象出现。“对人类自身种群命运的实质危害并不在莫须有的机器人‘人格’本身,而是在机器人‘人格’掩护下极少数创造算法、通过人工智能驱动社会运转的业内人对大多数人的算法独裁与技术绑架。”[12](www.xing528.com)

在这一阶段,人工智能产品的行为是研发者或使用者预先设定的程序和机器学习共同作用的结果,需要考察研发者和使用者对人工智能产品的控制能力,分类设计民事法律责任规则,即区分行为原因是划分责任的前提。智能机器(人)的智能化特征,改变了人与机器之间的关系。主体与客体二元划分下的控制与被控制关系的理论预设的根基发生动摇,机器的“行为”被区分为自主行为和控制行为,需要在区分自主行为与控制行为的基础上确定民事法律责任的方案。《欧盟机器人民事法律规则》特意强调,当机器人的“有害行为”实际归因于人的身份时,经过训练得来的技能不应与自主学习获得的技能相混淆,并建立了责任承担与特定人的干预程度的正比关系规则。[13]

(三)机器自主意识阶段

人类对作为人类智能衍生物的人工智能负有管控义务,是其需要对人工智能造成损害承担责任的基础。在机器自主意识阶段,人工智能的行为摆脱了研发者或使用者的控制,是其自由意志的结果。研发者或使用者为人工智能致损承担责任的基础丧失,人工智能作为独立意思表示的主体需要对其行为产生的法律后果承担责任。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈