Page 33 - 《国际安全研究》2020年第1期
P. 33
2020 年第 1 期
分理解算法运行的原理,也无法完全掌控智能系统的决策及其实施进程,进而被
①
动地陷入一种“算法黑箱”(black box)的状态。 同时,尽管人工智能有助于
实现决策的强理性与概率化的变革,但是情感、道德等主观性因素无法被充分嵌
入这一决策机制,甚至有可能被完全排除在外。这意味着,人工智能难以充分地
识别非人道行为,甚至可能自发制定出既定目标之外的非意图性目标(unintended
②
impact)。 此外,基于历史数据的算法模型对潜在的突发性变化并不具备完全
的预判能力与应变能力,并且监管环境、风险环境或风险策略等基础条件的变化
对于人工智能也具有一定的实时性要求。因此,一旦人工智能不能及时对此进行
调整,则同样也可能带来相应的风险。
不难看出,无论是因技术滥用而导致的技术外溢风险,还是因技术缺陷而产生
的技术内生风险,人工智能在某种程度上的确存在失去人为有效控制的可能。“一
个真实环境中的人工智能系统,会面临数据安全、模型/算法安全、实现安全等多
③
方面的安全威胁。” 当然,人工智能技术的内生风险要比其外溢风险相对更难以
控制,前者所可能造成的危害也比后者相对更为严重。尤其是当人类失去对人工智
能技术的本地化控制时,就难以再对人工智能技术的研发与应用进行有效监管与控
制。在这一状态下,国家安全就可能面临着更多因人工智能技术滥用及其演进路径
不确定所导致的“技术恐怖”现象。
综上所述,人工智能技术的发展及应用将对国家安全带来新的挑战。一方面,
人工智能技术的介入将加速新型军事能力和战略博弈模式的形成,打破传统的战略
对抗模式及其博弈的平衡,进而导致国际体系出现更大的不稳定性与不确定性;另
一方面,尽管人工智能技术的应用将有力地推动新一轮产业革命,但同时也将拉大
国际行为主体间的能力代差,扩大资本垄断技术与市场的能力,导致社会治理面临
诸如算法歧视、数据垄断以及隐私保护等问题,并催生一系列“技术恐怖”的现象。
需要指出的是,人工智能技术所导致的国家安全风险已经逐步显现,前述所提及的
部分风险也是其他新兴技术应用的共有特性。因此,国家安全在技术共振之下更有
① Mike Ananny and Kate Crawford, “Seeing without Knowing: Limitations of the Transparency
Ideal and Its Application to Algorithmic Accountability,” New Media & Society, Vol. 20, No. 3, 2016,
p. 975.
② 封帅、周亦奇:《人工智能时代国家战略行为的模式变迁——走向数据与算法的竞争》,
载《国际展望》 2018 年第 10 期,第 57 页。
③ Meredith Whittaker, Kate Crawford, Roel Dobbe, et al., “AI Now Report 2018,” AI Now
Institute, October 16, 2018, https://ainowinstitute.org/AI_Now_2018_Report.pdf.
· 31 ·