Page 24 - 《国际安全研究》2020年第1期
P. 24
人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择
战争方面的决策可能变得更加宽松,并倾向于实现人工智能的大规模军事化应用以
①
构建自身的绝对优势。 第二,技术弱国所处的被动位置则使其形成获取维护安全
的防御性需求,即技术弱国更易于倾向采取激进的反制措施,倾向于寻求人工智能
武器的扩散以获得新的制衡手段。第三,由于各国无法直观地判断相互间在人工智
能技术上的差距,更是可能导致各国不得不做出最为极端的选择,即将潜在对手的
②
威胁最大化。
这样看来,在人工智能军事化应用的影响下,国家安全的客观外延性
(extensionality)与主观意向性(intentionality)极有可能发生重叠,即因人工智能技术
发展的差异性所导致的“生存性焦虑”存在被放大为“生存性威胁”的可能(如图
2 所示)。而“客观安全与主观安全的丧失将导致国家行为大幅度的偏离理性轨道”,
因此无论是技术强国还是技术弱国,均有在人工智能军事化应用中强化战略竞争的
③
倾向。 人工智能技术发展所导致的力量失衡以及安全格局的转变,就将导致国际
体系出现更大的不确定性与不稳定性。
图 2 人工智能军事化应用之下国家安全偏好的转变
资料来源:笔者自制。
① Dominic Johnson, Overconfidence and War: The Havoc and Glory of Positive Illusions,
Boston: Harvard University Press, 2004, pp. 4-5.
② Michael Horowitz, “Artificial Intelligence, International Competition, and the Balance of
Power,” Texas National Security Review, Vol. 1, No. 3, 2018, p. 41.
③ 美国约翰·霍普金斯大学教授阿诺德·沃尔弗斯(Arnold Wolfers)将国家安全分为客观
安全与主观安全,“安全在客观意义上表现为已获得的价值不存在威胁,在主观意义上则表明不
存在一种恐惧——这一价值受到攻击的恐惧。”参见 Arnold Wolfers, “National Security as an
Ambiguous Symbol,” Political Science Quarterly, Vol. 67, No. 4, 1952, pp. 481-502。
· 22 ·