首页 理论教育 新型因果关系规则的探索

新型因果关系规则的探索

时间:2023-07-05 理论教育 版权反馈
【摘要】:加害行为与损害结果之间的因果关系模糊化。为解决因果关系证明困难和不经济的难题,需要建立强制操作留痕和定期报告制度。设计者、制造者或生产者需要证明实际发生的损害与不符合法定或行业标准之间不存在因果关系,方可免责。(五)替代原因切断因果关系的规则“深度学习算法”使得智能机器(人)基于数据和算法分析,感知外界环境并进行决策成为可能。

新型因果关系规则的探索

(一)识别规则

查明事实是责任认定的前提。技术漏洞、设计瑕疵、制造缺陷、管理失误、使用不当、人工智能超越原设计方案的“自身行为”都可能是导致人工智能产品侵权的原因,需要对人工智能产品设计、制造、管理、使用的各环节进行分析,探究因果关系算法的专业性、复杂性和不透明性等特征使得智能机器(人)致损事故陷入不可解释或难以解释的困境。加害行为与损害结果之间的因果关系模糊化。决策逻辑和决策过程的发现和证明需要专业人员、设备进行分析,成本高昂。即便算法是公开的、透明的,受害方也会因为专业方面的限制而缺乏相应的举证、质证能力。为了胜诉受害人需要为克服技术上的障碍而支付无法估量的成本并且难以预测结果,维权成本与收益之间比例失衡,具有不经济的特征。为解决因果关系证明困难和不经济的难题,需要建立强制操作留痕和定期报告制度。通过强制留痕将智能机器(人)的行为轨迹固定下来,通过强制定期报告降低识别智能机器(人)行为轨迹的成本,保障其行为的透明度。

(二)法定或行业标准规则

过错推定下的举证责任倒置方式对于制造者一方而言有过于严苛之嫌。“由设计者和制造商证明产品没有缺陷,意味着他们要对‘无’承担证明责任,这可能导致设计者和制造商须对几乎所有的自动驾驶汽车致损事故负责,与直接废弃缺陷要件无异。”[174]为了缓和举证责任倒置规则过于严苛的弊端,需要引入法定或行业标准规则。不符合法定或行业标准就是人工智能产品存在缺陷的初步证明。设计者、制造者或生产者需要证明实际发生的损害与不符合法定或行业标准之间不存在因果关系,方可免责。

根据“事物自道其缘”的基本原理,“只要受害人能够证明其所受损害系智能机器人行为在事实上的结果,法律上的因果关系即告成立,而不必证明该行为是其损失发生的唯一原因或直接原因。”[175]制造者需要储存智能机器(人)运行过程中与安全相关的数据,并保证数据的可视化或可解释性,从而确保损害事实发生过程的透明度,并在事故发生时将其作为免除责任的证据。

(三)可预见性规则

根据人工智能程序设计者对智能机器行为是否可预见,可以将智能机器(人)的行为分为可预见行为和不可预见行为两种类型。在可预见行为中,智能机器(人)的行为与程序设计之间存在对应关系。在不可预见行为中,算法黑箱增加了识别智能机器(人)行为的难度。Jenna Burrell 在其论文“机器如何‘思考’:理解机器学习算法中的不透明性”中论述了三种形式的不透明性:因公司商业秘密或者国家秘密而产生的不透明性,因技术文盲而产生的不透明性以及从机器学习算法的特征和要求将它们有效适用的测量中产生的不透明性。[176]

根据不可预见行为与人工智能程序设计者的主观意图之间的关系,又可将不可预见行为区分为目的性不可预见行为和非目的性不可预见行为。在目的性不可预见行为中,虽然智能机器(人)的行为是程序设计者不可预见的,但是,这种不可预见正是程序设计者的目的所在。深度学习算法使得智能机器(人)具备了自主学习的能力,能够基于算法和数据作出程序设计者不可预见的行为。该行为的不可预见本身在程序设计者或制造者的目的范围内。换言之,智能机器(人)行为或决策的不确定性与不可预测性是设计者或制造者预先设计的结果。具体行为不可预测不同于风险不可预测。以数据和算法为基础的机器行为和决策仍然处于人类的控制之下。“任何人如果允许机器作出自主决策,都应该能预见到机器总是会失控并且应当为此承担责任。”[177]

非目的性不可预见行为产生的原因主要有:第一,智能机器(人)自我进化。高度智能化的人工智能产品在运行过程中自行修改程序。第二,外来因素介入。例如,黑客攻击将代码植入人工智能系统。外来因素介入人工智能系统造成损失时,人工智能系统沦为侵权的工具,真正实施侵权行为的主体是隐藏在人工智能系统背后的主体。这就需要运用穿透规则,由通过人工智能系统实施侵权行为的主体承担一般侵权责任。(www.xing528.com)

总之,智能机器(人)的自主程度是影响法律责任承担的重要考量因素。预见性(foreseeability)是程序设计者、制造者、使用者等主体对智能机器(人)的致害行为承担法律责任的前提。不可预见(unforeseeable)阻却了人工智能系统设计者对系统造成损害需要承担的责任。受害者可能丧失获得救济的途径。[178]

(四)合理期待规则

化繁为简,以合理预期为标准判断缺陷是否存在。这就解决了因智能技术的复杂性而导致缺陷证明困难的问题降低缺陷证明标准,进而扩大产品责任的范围,避免生产者、消费者以及受害人围绕复杂的学习算法是否存在进行证明、分析和论证,是在既有规则体系下保障实质正义的一项合理政策选择。

(五)替代原因(suspending cause)切断因果关系的规则

“深度学习算法”(deep learning algorthm)使得智能机器(人)基于数据和算法分析,感知外界环境并进行决策成为可能。具有自主学习能力的人工智能系统作出的决策或行为会随着环境的改变而发生变化,即出现人类设计者未能预见的情况。人类编程员设定的目的与智能机器努力的结果出现偏差。人工智能自主学习和适应环境的能力,使控制权问题变得扑朔迷离。机器决策或行为的可预见性和可控制性这一理论预设根基发生动摇。智能机器(人)行为的自主性增强,相应地,人类对智能机器(人)的控制力减弱。无论人类在人工智能研发、程序设计和制造的过程中如何小心谨慎都无法完全控制或预测具有自主学习能力的人工智能系统根据环境因素变化可能作出的决策或行为。基于学习算法的智能机器(人)自主决策和行为的介入作为替代原因切断了人类程序设计者或者智能机器(人)使用者与损害结果之间的因果关系。

在何种条件下,智能机器(人)的自主决策和行为构成切断人类程序设计者或智能机器(人)使用者与损害结果之间因果关系的介入因素?“哈特和奥诺尔讨论法律中的因果关系时,对于人的行为是否构成介入(替代)原因这一问题所提出的主要判断标准即在于介入的行为是否体现了介入者的自由意志和自主选择。”[179]也就是说,以介入行为是否体现了介入者独立的自由意志为标准判断是否构成替代原因。介入行为体现介入者独立的自由意志构成介入原因;介入行为不体现介入者独立的自由意志则不构成介入原因。

在机器意识尚未觉醒的技术条件下,人工智能尚不具有独立、自主的意识,智能机器(人)在交互环境中自主作出决策是人类设计者或制造者预先设计或追求的结果。智能机器(人)行为或决策的不确定性与不可预测性是设计者或制造者预先设计的结果。具体行为不可预测不同于风险不可预测。以数据和算法为基础的机器行为和决策仍然处于人类的控制之下。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈