Page 148 - 《国际安全研究)》2020年第2期
P. 148
美国国家安全认知的新视阈:人工智能与国家安全
①
程,人们很难追踪个人数据隐私的泄露途径和程度。 人工智能开放性的产业生态,
不仅增加了监管机构的监管难度,也模糊了法律的管辖边界。更为严重的是,人工智
能可能被美国政府用作侵犯公民基本权利、逃避法律管控的工具,严重冲击着美国的
社会秩序,最为突出的就是政府在执法过程中频繁使用人工智能而引发对公民基本权
利的担忧。例如,法院在应用人工智能技术时,会由于算法方面的偏差而导致刑事判
决结果出现重大的不公平现象;政府利用人工智能技术,能够对整个公民社会进行全
面的监督,严重侵犯公民的隐私权等基本的公民权利,甚至在极端情况下会出现乔
②
③
治·奥威尔(George Orwell)在《一九八四》 中描述的状况。
(五)人工智能与美国外部安全的新风险
人工智能数据的开放性,扩大了美国面临的外部安全风险。麦肯锡全球研究所
(McKinsey Global Institute)一项研究表明,促进开放数据源和数据共享的国家是
④
最有可能看到人工智能快速发展的国家。 据此,美国想要进一步促进人工智能发
展,就必须继续加强数据源的开放和共享。在此过程中,人工智能也会被国家和非
国家行为体获取并应用于非常规战争。“人工智能是一种不对称的威胁,作为一种
⑤
力量倍增器,使得个人完全有可能与整个国家竞争”, 人工智能领域的开放性和
分享性导致知识和信息资源的迅速传播,加之数据源的不断开放和共享,这些知识、
资源和数据也会落入威胁行动者的手中。特别是恐怖主义分子可能会利用人工智能
在数据和算法方面存在的漏洞,发动新形式的恐怖主义袭击以破坏美国的政治稳
定、经济安全,并扰乱、动摇社会秩序和基础,最为典型的就是网络恐怖主义。
人工智能固有的不确定性,可能会大幅增加战争决策的风险成本。算法和数据
是人工智能的核心,算法和数据可能存在的偏差也就成为人工智能固有的不确定性。
由于数据和算法偏差的存在,“在某些情况下,某些人工智能系统被认为能够实现
歧视性或偏见性……许多历史数据集反映的传统值,有可能并不能代表和反映当前
⑥
系统所需要的偏好,由于数据和算法偏差的存在,这种错误可能一直存在”。 由
此,就使得我们不得不关注使用人工智能进行战略决策的风险成本问题。所谓“风
① 清华大学中国科技政策研究中心:《中国人工智能发展报告 2018》,2018 年 7 月,第 78 页,
http://www.clii.com.cn/Ihrh/hyxx/201807/P020180724021759.pdf。
② 参见 [英] 乔治·奥威尔:《一九八四》,董乐山译,上海:上海译文出版社 2006 年版。
③ States Army War College, “Strategic Robotpower: Artificial Intelligence and National
Security,” April 2017, http://publications.armywarcollege.edu/pubs/3497.pdf.
④ Darrell M. West and John R. Allen, “How Artificial Intelligence is Transforming the World?”
April 2018, https://www.brookings.edu/research/how-artificial-intelligence-is-transforming-the-world/.
⑤ The Department of Homeland Security, “Artificial Intelligence: Using Standards to Mitigate
Risks,” 2018, https://www.dhs.gov/sites/default/files/publications/2018_AEP_Artificial_Intelligence.pdf.
⑥ Darrell M. West and John R. Allen, “How Artificial Intelligence is Transforming the World?”
April 2018, https://www.brookings.edu/research/how-artificial-intelligence-is-transforming-the-world/.
· 146 ·