Page 146 - 国际安全研究2019年第5期
P. 146
2019 年第 5 期
的使用,其中的武器审查程序能够对 LAWS 研发进行有效监管。历史表明,新的武器
技术总是会引发法律适用问题的广泛讨论,禁止新技术武器的尝试都未能经受住战争
的冲击。因此,允许技术发展的同时确保符合现有法律要求是一个更为审慎的做法。
但另外一些代表对此表示质疑,认为目前的国际人道主义法不足以规制 LAWS 的迅猛
发展,需要建立额外的机制进行监管和控制。此外,还有观点认为,不能想当然地将
现有的国际人道主义法适用于 LAWS,因为这可能会使 LAWS 过早合法化。在 2018
年 8 月的会议上,一个小组讨论了是否需要就人工智能驱动的完全自主武器问题展开
正式谈判,制定一个禁止完全自主武器的条约。但是,由于美国、俄罗斯、韩国、以
①
色列和澳大利亚等国的反对,这个提案最终未能通过。 此外,“是否以及如何追究
机器的法律责任”这一问题也颇具争议。如果应当追究机器的法律责任,就意味着赋
予机器以法人地位,这又牵涉到人机伦理问题。且追究机器的法律责任很难具备实际
意义,因为机器根本感受不到受惩罚,也无所谓法律的震慑作用。
5. 伦理分歧:机器是否可以成为道德主体?机器是人类的工具还是智能体?
在伦理方面,主要的分歧在于如何看待人与机器的关系。总括起来,大体可分
为“工具论”(mere tools)和“智能体论”(intelligent agents)两大派别。持“工
具论”观点的专家认为,机器不管怎么发展只不过是人手中的工具,只是在复杂性
和精密性上有所不同。机器人很难具有道德推理、判断能力,遑论自我意识的产生。
人类独特的自我意识无法在机器身上得到复制,因为目前人类对自我意识的研究都
远未明晰。虽然自主技术会不断进步,但是自主系统本质上仍然是机器,只能按人
类预先编程的指令行事。基于此,认为将由机器来作出生死决策的想法是错误的,
因为能对使用武力决定负责的只有指挥官、操作员、程序员和工程师,机器是无法
负责的。持“智能体论”的专家认为,自主性技术可能进化为独立的智能体,并最
终脱离人类的控制。尤其是机器人可能具有人类判断和决策能力,直接挑战人的伦
理和尊严。将人类生死决策权授予机器是一个重大的伦理问题。因此,有必要对
②
LAWS 进行管控,比如将人类价值观、伦理标准等要素嵌入机器中。 在 2016 年
的会议中一些代表提出了人机“智能伙伴关系”概念,用于描述机器提供数据促进
人类决策程序的情景。也有人指出,当人几乎没有时间考虑机器提供建议的合理性
① 大明:《美俄坚决反对!联合国全面禁止 AI 自主武器正式谈判无果而终!》, 新浪科技,
2018 年 9 月 2 日,https://tech.sina.com.cn/roll/2018-09-02/doc-ihinpmnr7963431.shtml。
② CCW, Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons
Systems (LAWS), p. 4.
· 127 ·