Page 32 - 《国际安全研究》2020年第1期
P. 32

人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择

                                                                                ①
            自主研发,并且也能通过对人工智能应用的破坏来获取新型的犯罪能力。  例如,
            机器学习中所使用的神经网络已在无人驾驶、机器人等领域得到了广泛应用,但原
            本无害的神经网络可能在遭受对抗样本(Adversarial Example)攻击或遭遇数据劫

            持后就极易出现隐藏性的偏差,而犯罪分子就能够通过这些人工智能装置来发动非
                           ②
            接触式的攻击。  另一方面,人工智能技术研发的秘密性、分散性与不透明性加大
            了打击技术犯罪以及调控技术稳定性的难度,并且人工智能技术应用边界的模糊性

                                            ③
            更是加剧了管控技术扩散的难度。  例如,在开源编程逐渐兴起的条件下,人工智
            能技术的研发便能够在相对秘密的情况下进行,相关研究项目的参与者也具有一定
            的分散性,进而导致监管者难以对公共危险源进行识别,也无法对这些参与者进行
                         ④
            有效的监管。
                 从技术内生风险来看,不确定的技术缺陷与安全防护措施的不完善是导致人工
            智能技术出现这一风险的主要原因。人工智能所具有“自我学习”能力使其能够在
            不需要外部控制或者监督的情况下,就能自主地完成某些任务。正如斯坦福大学人

            工智能与伦理学教授杰瑞·卡普兰(Jerry Kaplan)所言,“机器学习系统能够发展
                                                    ⑤
            出自己的直觉,并依照这一直觉来行动”。  但是如果人工智能跃升成具有“自主
            思维”的主体,形成了自身运行的“技术理性”,那么人工智能就将具备去本地化
            控制的能力。然而,在人工智能的运行过程中,算法并不会对决策结果进行解释,

                                                                ⑥
            也无法确定某个特定的数据实例是否会对决策产生干扰。  因此,使用者既无法充

                ①  David Hastings Dunn, “Drones: Disembodied Aerial Warfare and the Unarticulated Threat,”
            International Affairs, Vol. 89, No. 5, 2013, p. 1243.
                ②  Mary Cummings, “Artificial Intelligence and the Future of Warfare,” Chatham House, January
            26, 2017, https://www.chathamhouse.org/publication/artificial-intelligence-and-future-warfare.
                ③  秘密性是指人工智能的研究与开发所需的可见设施相对较少;分散性则是指人工智能
            的研究与开发无需所有部件、人员同时就位;不透明性是指人工智能的运行可能处于秘密状态,
            并且不能被反向工程控制。当然,这些特征并不是人工智能技术所独有的,信息时代的许多科
            技同样也具有这些特征。但是,人工智能研究与开发的分散程度和规模以及交互程度都远远超过
            以往的任何科技。参见 Matthew Scherer,  “Regulating Artificial Intelligence Systems: Risks,
            Challenges, Competencies, and Strategies,” Harvard Journal of Law  & Technology, Vol. 29, No. 2,
            2016, pp. 363-364。
                ④ [美]  马丁·福特:《机器人时代》,王吉美等译,北京:中信出版社 2015 年版,第 36 页。
                ⑤  Jerry Kaplan,  “AI’s PR Problem,”  MIT Technology  Review,  March 3, 2017, https://www.
            technologyreview.com/s/603761/ais-pr-problem/.
                ⑥  ENISA, “Towards  a Framework for Policy  Development in Cybersecurity  - Security  and
            Privacy Considerations in Autonomous Agents,” March 14, 2019, https://www.enisa.europa.eu/
            publications/considerations-in-autonomous-agents.
            · 30 ·
   27   28   29   30   31   32   33   34   35   36   37