Page 140 - 国际安全研究2019年第5期
P. 140

2019 年第 5 期

               虑国际规范的限制。因此,LAWS 的研发可能加剧恐怖主义威胁,恶化全球安全状
               况。此外,LAWS 研发可能恶化“不对称战争”情况,刺激叛乱和报复行为,提高
               冲突升级的风险。为了防止自主性技术的扩散,一些专家建议依据《第一附加议定

               书》第三十六条的合法武器审查程序,交换相关信息,对自主性技术的国际转让实
                                                          ①
               施有效控制,防止扩散和非国家行为体的滥用。   更为重要的是,由于人工智能技
               术军民两用的内在性质,许多最初用于民事用途的自主系统很容易经过改装转化为

               军事系统,这无疑给扩散带来了便利。此外,LAWS 被恶意滥用及通用人工智能对
               人类可能的毁灭性“生存威胁”也是一大担忧。
                   3. LAWS 军事应用的局限性
                   LAWS 系统的核心技术是人工智能,而人工智能技术拥有诸多局限性,因此人工

               智能的局限性也构成了 LAWS 系统的弱点所在。一般而言,可以将之分为内部固有局
               限性和外部局限性两个方面。在内部局限性方面,不同于传统的信息技术,人工智能
               具有极高的复杂性,也更加容易带来不确定性和不可预测性。具体而言,人工智能存

               在“算法黑箱”这一固有缺陷,其作用机制难以为操作和部署此类机器的人员完全理
               解,结果也更加难以预测。一方面,由于系统自我交互、人机交互等引起的系统故障
               很难排除,当不同方案和系统组合或者系统和代码互动速度过快时,这类风险可能会
               加剧;另一方面,外部局限性主要来自于网络攻击,比如遭遇敌方黑客攻击、数据注

               毒等引起的脆弱性。LAWS 需要依托电脑软件和系统才能运行,而软件和系统恰恰容
               易被敌方进行网络攻击,在战场上出现失能甚至临阵倒戈的风险。
                   4.  解决方案

                   在如何应对 LAWS 所带来的军事和国家安全风险方面,各代表团和专家组提
               出了不同的建议,主要方法可总结为以下几种:一是基于现有的国际法足以管控
               LAWS 所带来的安全风险这一认识,强调个人应当对 LAWS 研发和部署的各个过
               程负有责任,提倡通过清晰一致的武器审查法,建立透明和相关信任措施,防止

               LAWS 引发新型军备竞赛以及对非国家行为体和恐怖组织的扩散。此外,相关的科
               学和商业共同体共同推动建立透明和信息措施,防止新兴技术落入非法组织手中。
               二是在第一种方案基础之上,建立新的具有法律约束力的其他必要规定,采取包括

               限制和禁止在 CCW 目标和宗旨范围内已经出现的武器系统类型。法国和德国的代
               表团提交了一份联合提案,建议发布一份政治宣言(political declaration),强调人

                  ① CCW,  Report  of  the 2015 Informal Meeting  of Experts  on Lethal Autonomous Weapons
               Systems (LAWS), p. 23.
                                                                                    · 121 ·
   135   136   137   138   139   140   141   142   143   144   145