首页 理论教育 不同国家工作性定义对比

不同国家工作性定义对比

时间:2023-08-06 理论教育 版权反馈
【摘要】:各国政府和其他利益攸关方在针对自主武器的讨论中提出了一些工作性定义,如表1所示。系统发射平台对环境变化的适应能力和系统具备的自我学习能力意味着自主武器将极有可能在完全符合国际人道主义法要求的情况下,独立于编程阶段预定义的标准选择目标。英国政府提出的概念着重强调了自主武器的最新情况。

不同国家工作性定义对比

各国政府和其他利益攸关方在针对自主武器的讨论中提出了一些工作性定义,如表1所示(出于代表性和针对性考虑,以下所列未能详尽)。

表1 不同国家的工作性定义

〔2〕Government of the Netherlands,2017,“Examination of Various Dimensions of Emerging Technologies in the Area of Lethal Autonomous Weapons Systems,in the Context of the Objectives and Purposes of the Convention”,document CCW/GGE.1/2017/WP.2 of 9 October,para.5.

续表

〔1〕Dustin A.Lewis,Gabriella Blum and Naz K.Modirzadeh,War-Algorithm Accountability,Harvard Law School Program on International Law and Armed Conflict,Research Briefing,August 2016.
〔2〕U.K.Ministry of Defence.,Joint Doctrine Note 2/11:The UK Approach to Unmanned Aircraft Systems,2011),pp.2-3.
〔3〕Department of Defense Directive 3000.09,November 11,2012,GLOSSARY,PART II.DEFINITIONS.autonomous weapon system,p.13.

不同国家的定义可能由各国人工智能技术发展水平参差不齐所致,但根本上是其在国际社会中不同利益和立场的反映,因此可能存在片面性和较强的针对性。例如,荷兰政府的工作定义明确了人类在预设目标特征、选择目标和武器、规划和评估潜在附带伤害的要素等“更广泛的回路”中发挥的重要作用,但同时也将“自主武器系统”的标签限制在极少数自主性程度较弱的系统上,比如没有通信功能的或自主潜水器系统等。这似乎意味着即使再有野心的国家也没有理由发展一个本质上不受人类控制的武器系统。

对此,法国政府的定义则企图通过系统具有“自我学习能力”来暗示:即使不受人类控制,自主武器系统依然极有可能符合国际人道主义法的要求。它规定了哪些类型的系统应该被认为是“自主的”,也间接地更全面地说明了什么是“自主”。同时在一定程度上限定了哪些不是自主武器系统,具体包括:现有的自动化系统;以任何形式的通信或控制连接到“军事指挥链”的系统;以任何方式进行监督,或能够“人为干预或验证”的系统;不具备自我学习能力的系统。这就为“自主化”与“自动化”标示了一条鲜明的界限。预先编制程序的系统,在没有任何适应、变化或自由裁量权的情况下,以特定的方式行事,将被视为是自动的,而不是自主的。

致命性自主武器最有可能具备自我学习能力,因为潜在军事场景的复杂性和多样性导致无法进行“预先编程”。系统发射平台对环境变化的适应能力和系统具备的自我学习能力意味着自主武器将极有可能在完全符合国际人道主义法要求的情况下,独立于编程阶段预定义的标准选择目标。但同时应注意到,在该定义下,只有部署后能够继续自我学习的系统才被认为是自主的,而其他任何拥有机器学习能力但在部署后不再继续学习的系统将被认为是自动的。这就引出了一些关于机器学习和设计选择的关键问题。系统自我学习本身是不可预测的,我们无法预知自主武器将如何在给定的模型中学习,以及它会如何将这种学习外推到新环境中。然而,系统自我学习后“独立于编程阶段预定义的标准”选择目标的情况并不是不可避免的。此时,在部署之前是否冻结学习就成为一种技术设计选择。(www.xing528.com)

英国政府提出的概念着重强调了自主武器的最新情况。与ICRC的立场相似,英国更关注自主武器系统所需的认知能力和人机交互特征,其优势在于对未来战场上人工智能潜在能力的前瞻性思考。目前,英国正在研究人类和人工智能如何互动以及如何实现“意识共享”,从而理解对方的行动、目标、意图和推理。然而,鉴于人工智能目前的技术水平,我们尚不清楚这种“意识共享”在技术上是否可行。尽管在自然语言处理、让人工智能学习语言含义以及非语言线索和社会习俗等方面取得了重大进展,但在人工智能研究中,实现强大的“意图识别”仍存在技术障碍

此外,与法国政府相比,英国政府的定义中没有涉及“致命性”一词,也没有讨论自主武器系统是否应该包括非致命性武器或者其他特定类型武器,如防御类武器系统。在其他论坛上,英国曾表示,如Phalanx“密集阵”近防武器系统,在没有人类参与的情况下获取和打击目标,是其一贯立场的例外,体现了英国政府对人类决策权的认同立场。[4]也就是说,英国武器的操作将始终处于人类控制之下,作为人类监督、权力和责任的绝对保障。虽然武器系统可以在自主模式下运行,但总是有人参与设置适当的参数。[5]

美国国防部2012年发布的《3000.09号指令》(Directive 3000.09)对自主武器系统的定义似乎是一种功能主义的定义,与ICRC的定义有相似之处,但侧重点不同。美国政府的定义优势在于它的全面性和对细节的关注,无论是技术的精确性以及用于支撑设计、开发、收购、测试、评估等各项程序的强大的算法类型,都来源于整个国防部关于自主系统的规定。然而,由于美国的定义是嵌入在国防部的政策中的,其目的是在美国内部就自主和半自主系统的开发和使用进行落地式讨论,因此,这一定义需要与该政策指令的其他几个要素一起考虑。

《3000.09号指令》聚焦于“自主武器系统”与“半自主武器系统”[6]的联系。与ICRC的功能导向法不同,美国并不关注“自主性”的存在问题,而是把重点放在自主武器系统的决策层面,强调武器系统在选择和攻击上的决策作用,以及目标的“选择”是“确定一个单独的目标或一组特定的目标”。[7]该定义下,任何特定的自主武器系统所拥有的使其作出决定的技术对任务本身而言也是特定的。单纯的功能方面的自主性并不意味着该系统是一个“自主武器系统”。自主性应存在于目标的选择和对该目标的打击效果方面。如果选择属于操作者,那么系统就是半自主的。如果激活之后的选择属于武器系统本身,那么它就是自主的。

然而,《3000.09号指令》并未明确,如果目标识别软件库中有不止一种类型的目标对象时该如何选择。例如,如果一个武器系统能够识别阿帕奇直升M1 坦克和爱国者拦截导弹,此时系统若对“狩猎”对象进行攻击,是否构成了定义所述的“选择”?还是因为指挥官想摧毁其中一个或所有目标,所以在发射时已经作出了选择?如果是后者,系统将由于指挥官精准的选择而丧失自主性特征。

与其他国家作出的工作性定义不同,中国政府目前尚未就自主武器系统给出明确的定义,而是就自主武器系统的典型特征加以描述,如自主性、致命性、自我学习能力等。值得一提的是,在关于自主性程度的立场问题上,我国强调自主武器系统应具备完全自主性。[8]由此可窥见,我国政府相对谨慎的态度一定程度上反映了对自主武器系统在实际应用中的担忧。

综上,不同国家对自主武器系统的定义看似包罗万象,对比之下实则暗含了不同利益和立场驱使下战略博弈的本质。到目前为止,各利益攸关方虽未就自主武器系统的概念达成一致意见,但争议本身的存在会促进相关问题的讨论,从而使自主武器系统这一争议对象的本质特征在不断的研究与探讨中逐渐清晰。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈