Page 32 - 《国际安全研究》2020年第1期
P. 32
人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择
①
自主研发,并且也能通过对人工智能应用的破坏来获取新型的犯罪能力。 例如,
机器学习中所使用的神经网络已在无人驾驶、机器人等领域得到了广泛应用,但原
本无害的神经网络可能在遭受对抗样本(Adversarial Example)攻击或遭遇数据劫
持后就极易出现隐藏性的偏差,而犯罪分子就能够通过这些人工智能装置来发动非
②
接触式的攻击。 另一方面,人工智能技术研发的秘密性、分散性与不透明性加大
了打击技术犯罪以及调控技术稳定性的难度,并且人工智能技术应用边界的模糊性
③
更是加剧了管控技术扩散的难度。 例如,在开源编程逐渐兴起的条件下,人工智
能技术的研发便能够在相对秘密的情况下进行,相关研究项目的参与者也具有一定
的分散性,进而导致监管者难以对公共危险源进行识别,也无法对这些参与者进行
④
有效的监管。
从技术内生风险来看,不确定的技术缺陷与安全防护措施的不完善是导致人工
智能技术出现这一风险的主要原因。人工智能所具有“自我学习”能力使其能够在
不需要外部控制或者监督的情况下,就能自主地完成某些任务。正如斯坦福大学人
工智能与伦理学教授杰瑞·卡普兰(Jerry Kaplan)所言,“机器学习系统能够发展
⑤
出自己的直觉,并依照这一直觉来行动”。 但是如果人工智能跃升成具有“自主
思维”的主体,形成了自身运行的“技术理性”,那么人工智能就将具备去本地化
控制的能力。然而,在人工智能的运行过程中,算法并不会对决策结果进行解释,
⑥
也无法确定某个特定的数据实例是否会对决策产生干扰。 因此,使用者既无法充
① David Hastings Dunn, “Drones: Disembodied Aerial Warfare and the Unarticulated Threat,”
International Affairs, Vol. 89, No. 5, 2013, p. 1243.
② Mary Cummings, “Artificial Intelligence and the Future of Warfare,” Chatham House, January
26, 2017, https://www.chathamhouse.org/publication/artificial-intelligence-and-future-warfare.
③ 秘密性是指人工智能的研究与开发所需的可见设施相对较少;分散性则是指人工智能
的研究与开发无需所有部件、人员同时就位;不透明性是指人工智能的运行可能处于秘密状态,
并且不能被反向工程控制。当然,这些特征并不是人工智能技术所独有的,信息时代的许多科
技同样也具有这些特征。但是,人工智能研究与开发的分散程度和规模以及交互程度都远远超过
以往的任何科技。参见 Matthew Scherer, “Regulating Artificial Intelligence Systems: Risks,
Challenges, Competencies, and Strategies,” Harvard Journal of Law & Technology, Vol. 29, No. 2,
2016, pp. 363-364。
④ [美] 马丁·福特:《机器人时代》,王吉美等译,北京:中信出版社 2015 年版,第 36 页。
⑤ Jerry Kaplan, “AI’s PR Problem,” MIT Technology Review, March 3, 2017, https://www.
technologyreview.com/s/603761/ais-pr-problem/.
⑥ ENISA, “Towards a Framework for Policy Development in Cybersecurity - Security and
Privacy Considerations in Autonomous Agents,” March 14, 2019, https://www.enisa.europa.eu/
publications/considerations-in-autonomous-agents.
· 30 ·