Page 109 - 《国际安全研究》2022年第3期
P. 109
2022 年第 3 期
主武器系统政府专家组(GGE)就是一个有益尝试。 人工智能快速发展和军事化
①
的趋势对现有国际武装冲突法中的区别性、相称性和人道性等核心原则造成严重冲
击,也需要从制度构建方面进行思考研究。
第二,各大国需要推动多元主体共同构建人工智能的相关机制,防止人工智能
技术的非法扩散和恶意使用。国家/政府、跨国公司(科技类企业)、技术社群和政
府间国际组织都是全球人工智能治理体系中的主要行为体。在国防和安全等战略技
术领域,国家/政府既是战略和政策的制定者,也是监管者,同时还是直接的参与者
和推动力量。 跨国科技企业为人工智能技术发展提供了知识信息、技术服务和创
②
新力量。由于技术管控极难,滥用门槛极低,人工智能不仅能够为国家行为体赋能,
而且也容易落入极端个人、犯罪团伙甚至恐怖组织之手。各主体需要共同研究如何
避免先进的人工智能技术落入恐怖分子之手,阻止非理性的恐怖组织等非国家行为
体对致命性自主武器系统的运用,防止恐怖分子将商用人工智能产品整合改装成威
力可观的攻击武器等等。
第三,重视人工智能技术制度中的伦理问题。例如,如何确保机器不会取代、
③
控制和伤害人类,以及人类已有的道德和价值体系如何被机器遵循等。 对于人工
智能机器能否成为独立法人、智能机器的损害如何追责等问题上,由于法律本身的
滞后性特点,在制定出成文的法律之前还需要社会制度和社会道德来加以约束。
④
以伦理为先导的社会规范调控体系是对人工智能技术发展过快而法律滞后的最好
补充。技术社群电气电子工程师协会(IEEE)制定的《人工智能设计的伦理准则》
和《阿西洛马人工智能原则》倡议是目前关于人工智能道德标准的主要代表。伦理
规范为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规
范,实现道德的法律化。
⑤
① UNIDIR, “The Weaponization of Increasingly Autonomous Technologies: Concerns,
Characteristics and Definitional Approaches,” Geneva, 2017, http://www.unidir.org/files/publications/
pdfs/the-weaponization-of-increasingly-autonomous-technologies-concerns-characteristics-and-definitional-
approaches-en-689.pdf.
② Gregory C. Allen and Taniel Chan, Artificial Intelligence and National Security, Cambridge:
Harvard University, 2017.
③ 鲁传颖、约翰·马勒里:《体制复合体理论视角下的人工智能全球治理进程》,《国际观察》
2018 年第 4 期。
④ 黄碧辉:《人工智能时代的制度安排与法律制度》,《法制与社会》2019 年第 28 期,第 20-
22 页。
⑤ 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017
年第 5 期,第 135 页。
· 107 ·