Page 140 - 国际安全研究2019年第5期
P. 140
2019 年第 5 期
虑国际规范的限制。因此,LAWS 的研发可能加剧恐怖主义威胁,恶化全球安全状
况。此外,LAWS 研发可能恶化“不对称战争”情况,刺激叛乱和报复行为,提高
冲突升级的风险。为了防止自主性技术的扩散,一些专家建议依据《第一附加议定
书》第三十六条的合法武器审查程序,交换相关信息,对自主性技术的国际转让实
①
施有效控制,防止扩散和非国家行为体的滥用。 更为重要的是,由于人工智能技
术军民两用的内在性质,许多最初用于民事用途的自主系统很容易经过改装转化为
军事系统,这无疑给扩散带来了便利。此外,LAWS 被恶意滥用及通用人工智能对
人类可能的毁灭性“生存威胁”也是一大担忧。
3. LAWS 军事应用的局限性
LAWS 系统的核心技术是人工智能,而人工智能技术拥有诸多局限性,因此人工
智能的局限性也构成了 LAWS 系统的弱点所在。一般而言,可以将之分为内部固有局
限性和外部局限性两个方面。在内部局限性方面,不同于传统的信息技术,人工智能
具有极高的复杂性,也更加容易带来不确定性和不可预测性。具体而言,人工智能存
在“算法黑箱”这一固有缺陷,其作用机制难以为操作和部署此类机器的人员完全理
解,结果也更加难以预测。一方面,由于系统自我交互、人机交互等引起的系统故障
很难排除,当不同方案和系统组合或者系统和代码互动速度过快时,这类风险可能会
加剧;另一方面,外部局限性主要来自于网络攻击,比如遭遇敌方黑客攻击、数据注
毒等引起的脆弱性。LAWS 需要依托电脑软件和系统才能运行,而软件和系统恰恰容
易被敌方进行网络攻击,在战场上出现失能甚至临阵倒戈的风险。
4. 解决方案
在如何应对 LAWS 所带来的军事和国家安全风险方面,各代表团和专家组提
出了不同的建议,主要方法可总结为以下几种:一是基于现有的国际法足以管控
LAWS 所带来的安全风险这一认识,强调个人应当对 LAWS 研发和部署的各个过
程负有责任,提倡通过清晰一致的武器审查法,建立透明和相关信任措施,防止
LAWS 引发新型军备竞赛以及对非国家行为体和恐怖组织的扩散。此外,相关的科
学和商业共同体共同推动建立透明和信息措施,防止新兴技术落入非法组织手中。
二是在第一种方案基础之上,建立新的具有法律约束力的其他必要规定,采取包括
限制和禁止在 CCW 目标和宗旨范围内已经出现的武器系统类型。法国和德国的代
表团提交了一份联合提案,建议发布一份政治宣言(political declaration),强调人
① CCW, Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons
Systems (LAWS), p. 23.
· 121 ·