Page 136 - 国际安全研究2019年第5期
P. 136

2019 年第 5 期

               机器如果自主作出生杀予夺的决策,必然会影响到目标人员以及所代表当事方(国
               家、政府和社会)的尊严,而支撑其他权利的尊严权也难免会受到 LAWS 的巨大
               挑战。根据现有战争法,国家军事人员只有在必要时才能诉诸武力,且必须符合相

               称性原则,但 LAWS 将很难满足这些要求。此外,对于使用武力的侵权行为进行
               补救是基于个人问责的前提,但 LAWS 所固有的机器问责空白将明显违反国际人
               权法。基于以上考虑,一些专家认为应当禁止 LAWS 的研发和使用。

                   2016 年会议专门设立“人权与道德问题”分论坛,重点讨论了 LAWS 可能导
               致的人权和道德问题,包括是否应当将生死决定权授予机器、如何将法律判断嵌入
               机器等。2017 年的会议也专设“法律和道德”小组,对将道德嵌入机器的可能性
               及方法等问题进行了深入研讨。

                   2. LAWS 与伦理问题
                   2015 年会议还讨论了 LAWS 的拟人化倾向。专家指出,人类社会存在将非人
               物品拟人化的趋向,在设计机器人时加入人的特征便是一个集中反映。这种人类特

               征的投射可能会产生混淆和误导期望。目前围绕人工智能所探讨的“自主性”“智
               能”“自我意识”等术语属于可能会使这种情况更加严重,催生对 LAWS 的误导
               性解释框架,造成“机器的人化”和“人的机器化”两大危险。为了破除这种趋向,
               专家建议应当改变用词,使用“人工自主性”“机器人自主性”“人工智能体”等

               术语来强调机器与人之间的差异性,回归以人为本的理念。   在 2018 年的报告中
                                                                     ①
               也特别强调,“在制定潜在的政策措施时,LAWS 领域的新兴技术不应当被拟人化
               (anthropomorphized)”。

                   关于是否应当将“生死决定权”授予机器是伦理讨论的一个核心话题。2016
               年会议讨论了将“生死决定权”授予机器对伦理道德的影响。很多代表团认为,在
               没有任何人类干预的条件下将“生死决定权”交给机器在道德和伦理上是无法接受
               的。若干代表团指出,其所代表的国家无意开发或获取这类性质的武器系统。2016

               年会议代表也普遍认为将人的生死决定权交给机器是不可接受的,机器无所谓死
               亡,因此也不应当决定人的生死。
                   法律和道德之间的关系是另一个重要问题。一些代表认为,将道德价值观与法

               律要求进行区分对于避免混淆至关重要。但另有一些代表认为这两个问题无法完全
               区分,在法律本身不完全明晰的条件下,道德问题难以避免。在“是否以及如何将

                  ① CCW,  Report  of  the 2015 Informal Meeting  of Experts  on Lethal Autonomous Weapons
               Systems (LAWS), pp. 18-19.
                                                                                    · 117 ·
   131   132   133   134   135   136   137   138   139   140   141