首页 理论教育 上级命令与刑法的关系及人工智能系统的利用

上级命令与刑法的关系及人工智能系统的利用

时间:2023-07-31 理论教育 版权反馈
【摘要】:但是,有时上级命令违反刑法,而执行命令则会牵涉犯罪。第一种是绝对抗辩模式,即所有根据上级命令采取的行动都受到法律保护。另一种极端模式是绝对责任模式,即任何行为都必须承担刑事责任,即使是履行上级命令的行为。要求服从的上级命令并非明显违法。人工智能系统已经被很多这类组织利用,包括军队、警队和监狱等,它们根据上级命令进行日常活动操作。第二个条件和特定上级命令的特性紧密相关。

上级命令与刑法的关系及人工智能系统的利用

人工智能系统根据上级命令在执行任务时犯罪,是否应免于承担刑事责任?上级命令的一般抗辩与在层级制的官方组织(如军队、警察和救援部队)中履行公务的个体有关。这些个体常常被要求违背其天生本能行事。比如,如果遇到重大火灾,人的本能是逃跑,而不是冲进去拯救被困的人。纪律是这些救援任务得以成功的最重要因素之一。遵守纪律的士兵即使冒着生命危险,也很可能会完成任务。因此,士兵学到的第一件事便是纪律。

但是,有时上级命令违反刑法,而执行命令则会牵涉犯罪。对此,有两种极端的解决方法。第一种是绝对抗辩模式,即所有根据上级命令采取的行动都受到法律保护。[463]这一模式将纪律置于法律之上。根据这一模式,只有指挥官才承担刑事责任。另一种极端模式是绝对责任模式,即任何行为都必须承担刑事责任,即使是履行上级命令的行为。[464]这一模式将法律置于纪律之上。

在第一种极端模式下,个人在犯罪时没有自由裁量权。这一模式导致第二次世界大战和其他战争中出现大量的战争罪和反人类罪。在第二种极端模式下,个人必须精通刑法或者全程由律师陪伴,才能确保他不会因履行上级命令而承担刑事责任。鉴于这两种模式的上述缺点,逐渐发展出折中模式,其中最常见的便是明显违法的命令模式。根据这一模式,只有个人执行的是明显违法的命令,他才需承担刑事责任;如果个人执行的违法命令不是明显违法,那么,他就会受法律保护。[465]

最终问题涉及违法以及明显违法命令之间的差异。两者都在客观上违法,但是,明显违法命令还违反了公众政策。每个社会遵循的公众政策都能反应其共同价值。这些价值可能涉及道德、社会、文化和宗教。不同社会信奉不同的价值,遵循不同的公众政策。明显违法的命令会损害这些价值,从而损害社会的公众政策和社会的自身形象。

例如,一名士兵被命令去强奸一名反对军事行动的平民。强奸违法,而且在这种情况下属于明显违法,因为它违反了现代社会的基本价值。没有任何精确的和决定性的审查能区分违法命令与明显违法命令的区别,因为公众政策是动态的,随着时间、人口和社会趋势的变化而变化。但是,公共政策可以通过案例分析并予以总结归纳的方式来进行教导。所以,适用上级命令一般抗辩必须满足两个主要条件:(1)层级式的隶属于合法的公共权力机构。(2)要求服从的上级命令并非明显违法。

如果两个条件都满足,那么就认为个体是执行上级命令,无需为所犯罪行承担刑事责任。但是,并不是每次个人遵守上级命令的情况都符合该抗辩,只有同时完全符合上述两个条件才符合。问题在于,上级命令的一般抗辩是否适用于人工智能系统。答案取决于,在相关情形下,人工智能系统具备满足上述条件的能力。(www.xing528.com)

第一个条件与个人和相关组织之间关系的客观特性紧密相关。[466]这种关系必须涉及:合法公共权力机构的层级从属关系,以及合法、有效的等级秩序系统。这种系统存在于军队和警队等机构之中。但是,私人组织无权实施犯罪。人工智能系统已经被很多这类组织利用,包括军队、警队和监狱等,它们根据上级命令进行日常活动操作。这些系统根据这些命令执行各种任务。

第二个条件和特定上级命令的特性紧密相关。命令必须要求服从性,否则不能称之为命令。就内容而言,命令必须不能明显违法。如果命令合法,或者虽然违法,但不明显违法,便满足这一条件。违法命令或明显违法命令的区别由法院自由裁量,但是,它们之间的差异能够通过独立个案来归纳分析。配置机器学习设备的人工智能系统有能力推断出明显违法命令的大致概况。[467]

例如,被空军操作的人工智能无人机正在寻找恐怖分子实验室并将之摧毁。无人机发现目标,并将信息传回总部。信息显示,实验室里有一名已经确定身份的恐怖分子和他的家人。无人机接到“用重磅炸弹袭击实验室”的命令。无人机在计算概率之后,判断实验室里的所有人都会死亡,然后执行命令。检查无人机记录时发现,无人机理解,该命令的合法性处于灰色地带。而且,无人机本可以飞低一点然后再炸毁实验室,从而减少人员伤亡。

如果无人机是自然人,他可能会主张上级命令的一般抗辩,因为在特定情况下国际法认可这种命令,只要这种命令不明显违法。因此,在这种情况下人类飞行员很可能会无罪释放,而且,执行上级命令的一般抗辩能够适用。那么,应该对人工智能系统区别对待吗?如果人类飞行员和人工智能系统具备相同的职务裁量权,而且都满足该抗辩的条件,那么在这种情况下没有任何正当理由使用双重标准

固然,人工智能系统的刑事责任(若有刑事责任),不会对其上级的刑事责任产生影响(若有下达违法命令的上级)。这些选择和决定会涉及一些道德难题,例如,让人工智能系统在人类生命的问题上作决定是否合法,人工智能系统造成人类死亡或者重伤是否合法。这些难题和上文提及的适用其他抗辩涉及的道德问题没有区别。[468]而且,关于刑事责任的问题并不会将道德问题纳入考量范围。所以,似乎上级命令的一般抗辩能够适用于人工智能系统。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈