Page 24 - 《国际安全研究》2020年第1期
P. 24

人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择

            战争方面的决策可能变得更加宽松,并倾向于实现人工智能的大规模军事化应用以
                                 ①
            构建自身的绝对优势。  第二,技术弱国所处的被动位置则使其形成获取维护安全
            的防御性需求,即技术弱国更易于倾向采取激进的反制措施,倾向于寻求人工智能

            武器的扩散以获得新的制衡手段。第三,由于各国无法直观地判断相互间在人工智
            能技术上的差距,更是可能导致各国不得不做出最为极端的选择,即将潜在对手的
                         ②
            威胁最大化。
                 这样看来,在人工智能军事化应用的影响下,国家安全的客观外延性
            (extensionality)与主观意向性(intentionality)极有可能发生重叠,即因人工智能技术
            发展的差异性所导致的“生存性焦虑”存在被放大为“生存性威胁”的可能(如图
            2 所示)。而“客观安全与主观安全的丧失将导致国家行为大幅度的偏离理性轨道”,

            因此无论是技术强国还是技术弱国,均有在人工智能军事化应用中强化战略竞争的
                  ③
            倾向。  人工智能技术发展所导致的力量失衡以及安全格局的转变,就将导致国际
            体系出现更大的不确定性与不稳定性。






















                             图 2  人工智能军事化应用之下国家安全偏好的转变

                资料来源:笔者自制。

                ① Dominic  Johnson,  Overconfidence and War:  The Havoc and Glory of  Positive Illusions,
            Boston: Harvard University Press, 2004, pp. 4-5.
                ②  Michael Horowitz, “Artificial Intelligence, International Competition, and  the Balance of
            Power,” Texas National Security Review, Vol. 1, No. 3, 2018, p. 41.
                ③  美国约翰·霍普金斯大学教授阿诺德·沃尔弗斯(Arnold Wolfers)将国家安全分为客观
            安全与主观安全,“安全在客观意义上表现为已获得的价值不存在威胁,在主观意义上则表明不
            存在一种恐惧——这一价值受到攻击的恐惧。”参见 Arnold Wolfers, “National Security  as  an
            Ambiguous Symbol,” Political Science Quarterly, Vol. 67, No. 4, 1952, pp. 481-502。

            · 22 ·
   19   20   21   22   23   24   25   26   27   28   29