Page 31 - 《国际安全研究》2020年第1期
P. 31
2020 年第 1 期
①
导致“自我实现的歧视性反馈循环”。 例如,根据美国公民自由联盟(ACLU)
的一项测试显示,由亚马逊公司所开发的 Rekognition 图像识别技术错误地将 28 名
美国国会议员识别为嫌疑犯,其中有色人种议员占比达到了 39%;根据美国麻省理
工学院媒体实验室的研究显示,该技术也无法可靠地识别“女性和皮肤黝黑的人”,
②
其中 19%的女性形象被误判为男性,而黑皮肤女性在其中占比为 31%。 这种因
数据或算法而导致的歧视,就可能引发种族歧视、性别歧视等社会偏见得到技术性
的强化,进而对公民的相关权利造成一定的威胁,并对社会秩序的稳定与公平也造
成相应的破坏。
(五)人工智能将加剧“技术恐怖”现象的发生
人工智能自身的技术自主性、高度复杂性和风险存续性导致其技术失控存在更
大的破坏性,从而导致国家安全可能面临“技术恐怖”的困境。根据德勤公司(Deloitte)
发布《悬而未决的人工智能竞赛——全球企业人工智能发展现状》报告显示,当前
人工智能发展最突出的三大技术风险分别是“网络安全漏洞、人工智能决策的潜在
③
偏见与基于人工智能的建议做出错误决策”。 其中,前两者主要是从人工智能技
术本身出发的。英国牛津大学人工智能治理中心研究员雷姆科·泽维斯洛特(Remco
④
Zwetsloot)则将人工智能在技术层面的风险划分为“事故风险和滥用风险”。 实
际上,人工智能不仅存在因恶意使用所导致的技术外溢风险,而且也面临着因技术
失控或管理不当所导致的技术内生风险。
从技术外溢风险来看,人工智能技术的成熟以及相关数字资源的开放不仅会催
生新的技术扩散风险,并且人工智能本身的技术漏洞也会增加其被攻击或利用的可
能。一方面,犯罪分子不仅可以更为便捷、隐蔽地进行小型无人攻击系统及武器的
① Richard Berk, Machine Learning Risk Assessments in Criminal Justice Settings, Berlin:
Springer-Verlag Press, 2018, pp. 22-23.
② Russell Brandom, “Amazon’s Facial Recognition Matched 28 Members of Congress to
Criminal Mugshots,” The Verge, January 26, 2018, https://www.theverge.com/2018/7/26/17615634/
amazon-rekognition-aclu-mug-shot-congress-facial-recognition.
③ Deloitte, “Future in the Balance? How Countries are Pursuing an AI Advantage,” May 28,
2019, https://www2.deloitte.com/content/dam/insights/us/articles/5189_Global-AI-survey/DI_Global-
AI-survey.pdf.
④ Remco Zwetsloot and Allan Dafoe, “Thinking about Risks from AI: Accidents, Misuse and
Structure,” LawFare, February 11, 2019, https://www.lawfareblog.com/thinking-about-risks-ai-accidents-
misuse-and-structure.
· 29 ·