首页 理论教育 正当防卫,紧急避险和胁迫的区别

正当防卫,紧急避险和胁迫的区别

时间:2023-07-31 理论教育 版权反馈
【摘要】:正当防卫中的防卫人作出反应是为了抵抗攻击人,紧急避险中的避险人的反应行为针对的是无辜的对象,而胁迫则是屈从于胁迫而实施犯罪。如今,胁迫不适用于要求故意的严重凶杀犯罪。个体受到胁迫采取的行为,在他看来,是两害相权取其轻:要么向威胁屈服并实施犯罪,要么损害合法利益。在要求受胁迫行为的情形中,可以认为,追究刑事责任所需的个人过错失去效力。正当防卫、紧急避险和胁迫的不同之处在于,其中的一个条件不同。

正当防卫,紧急避险和胁迫的区别

刑法背景下,能够认为人工智能系统会出于胁迫而采取行动吗?胁迫正是与正当防卫和紧急避险同种类型的正当化抗辩。如上所述,它们都是为了降低社会对权力的绝对垄断。[451]胁迫、正当防卫和紧急避险的主要不同在于行为的过程不同。正当防卫中的防卫人作出反应是为了抵抗攻击人,紧急避险中的避险人的反应行为针对的是无辜的对象,而胁迫则是屈从于胁迫而实施犯罪。

例如,一名擅长破解保险柜的罪犯已经退隐江湖。他以前的朋友伙同他一起抢劫,因为需要他的这项专长。但是,他拒绝了。他们试图说服他,他仍然拒绝。所以,他们绑架了他的儿子,并且威胁说,如果他不参加这起抢劫案,就会杀害他的儿子。他很清楚,这些人有能力这么做。他也很清楚,如果自己报警,他们也会杀害自己的儿子。所以,他屈服于胁迫,发挥自己的专长,参与了抢劫。如果被捕,他可以主张自己受到胁迫。正当防卫和紧急避险与这起案件无关,因为他没有直面威胁,而是选择屈服于威胁。

胁迫抗辩的传统方法是在特定情况下将所犯罪行进行合理化。[452]该抗辩的传统正当化理由是,刑法理解人性的弱点。有时,个体在受到威胁时不愿直面威胁,而是选择实施犯罪,并为对宝贵利益造成损害而付出代价。直到18世纪,胁迫一般抗辩才适用于所有犯罪。[453]之后,英美法系对其适用性加以限制。如今,胁迫不适用于要求故意的严重凶杀犯罪。[454]

在上述事例中,如果所犯罪行不是抢劫而是谋杀,那么胁迫的一般抗辩将不适用于认定刑事责任,而只会在量刑时加以考虑。之所以限制其适用性是因为人类生命神圣不可侵犯。[455]不过,这一方法却有很多例外[456]通常,胁迫不适用于杀人罪,但是,在全世界各国的刑法中,胁迫仍然能作为一般抗辩而被广泛适用。个体受到胁迫采取的行为,在他看来,是两害相权取其轻:要么向威胁屈服并实施犯罪,要么损害合法利益。

鉴于个人在胁迫之下采取行动时,政府当局并不在场,或者并不有力,胁迫的一般抗辩部分地减少一般概念的适用。正如上文所述,根据该一般概念,只有社会(国家)才具有绝对的垄断权。在要求受胁迫行为的情形中,可以认为,追究刑事责任所需的个人过错失去效力。这一抗辩的现代基础在于,我们理解个人可能会屈服于威胁,而不是直面威胁,因为并不是所有人都是英雄,而且法律不要求任何人都成为英雄。[457]

适用该一般抗辩必须满足以下几个条件:(1)受保护的利益必须合法,合法利益指生命、自由、身体和自己或他人的财产。不要求受威胁之人与被胁迫之人事先具有联系;[458](2)受保护的利益必须处于明确且即将发生的危险之中;[459](3)受胁迫之行为必须屈服于威胁;(4)受胁迫之行为必须具有危险相当性;[460](5)受胁迫之人无法控制危险或控制危险发生的条件(原因自由行为)。[461]

如果这些条件全部满足,那么就认为个体是受胁迫而采取行动,无需为所犯罪行承担刑事责任。但是,并不是所有向威胁屈服的人都是在胁迫下行动,只有完全符合上述所有条件才是受胁迫之行为。问题在于,胁迫的一般抗辩是否适用于人工智能系统。答案取决于,在相关情形下,人工智能系统具备满足上述条件的能力。(www.xing528.com)

上述条件中第1、2、4和第5个条件与正当防卫和紧急避险抗辩完全相同(已作必要修正);不同之处在于,大多数法律体系中的胁迫抗辩并不要求立即行动,因为合法利益面对的威胁和危险可能是持续的。正当防卫、紧急避险和胁迫的不同之处在于,其中的一个条件不同。正当防卫中的行为指向攻击人,紧急避险中的行为指向外部或无辜利益,受胁迫之行为则是对特定威胁的屈服。

在这种情况下,有关人工智能系统的问题是,它们是否有能力实施“两害相权取其轻”。例如,监狱守卫机器人抓到一个正在逃跑的囚犯,囚犯手持上膛的手枪指着人类守卫并威胁表示,如果机器人不将自己放开,他就会向人类守卫开枪。在计算概率之后,机器人判断,危险是真实的。如果机器人向威胁屈服,那么人类守卫将得救,但是,机器人却实施了犯罪,成为囚犯逃狱的帮助犯。如果机器人不向威胁屈服,那么没有发生犯罪,囚犯逃跑将失败,但是,人类守卫将会被杀害。

如果抓到囚犯的是一个人类守卫,他会因胁迫的一般抗辩而免于承担刑事责任,因为该抗辩的所有条件都得到了满足。人工智能系统可以计算每个选择的概率,并作出伤亡人数最少的选择。强人工智能系统已经被用来预测复杂事件(例如,气象模式),而且,计算前文事例中的概率则要简单得多。人工智能系统分析概率时面临的两种选择与人类守卫需要考虑的两种选择完全相同。

如果人工智能系统基于其编程或相关机器学习软件考虑到可能的伤亡人数,它可能会选择向威胁屈服。人工智能系统的这一选择符合胁迫的所有条件,所以,如果它是人类,便能因胁迫的一般抗辩而免于承担刑事责任。那么,应该对人工智能系统区别对待吗?而且,如果人工智能系统改变选择并导致更加不幸的结果,我们很可能会以与对人类守卫完全相同的方式来追究相关主体的刑事责任(编程人员、用户或者人工智能系统)。

固然,这些选择和决定会涉及一些道德难题,例如,让人工智能系统在人类生命的问题上作决定是否合法,人工智能系统造成人类死亡或者重伤是否合法。但是,这些难题和上述的正当防卫以及紧急避险的道德难题如出一辙。[462]而且,关于刑事责任的问题并不会将道德问题纳入考量范围。所以,似乎胁迫一般抗辩应该与正当防卫和紧急避险一样,能够适用于人工智能系统。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈