Page 30 - 《国际安全研究》2020年第1期
P. 30

人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择

            的主要原因并不在于技术替代,而是人工智能嵌入所导致的社会技能结构和人才供
            需之间的不平衡。人工智能技术本身无法均等地渗透到所有国家、地区、产业和经
            营主体,其带来的经济增长也同样难以以涓流的方式惠及所有群体。然而,恰恰是

            这种不平等与不对称扩大了人工智能所造成的社会各产业间、群体间与阶层间在发
                                                            ①
            展能力、资源占有程度与社会影响力等方面的失衡。  因此,人工智能所导致的这
            一结构性失业不仅可能降低劳动参与率与加剧收入的“二元”分化,还将扩大社会

            贫富差距和减弱阶层流动性。社会包容度衰减等问题也将因此变得更为突出。
                 数据隐私也是当前人工智能发展急需解决的问题。人工智能技术对用户隐私的
            侵权主要表现为个人数据的不当收集、数据收集方滥用、数据二次使用与扩散。实
            际上,人工智能技术研发本身就是以大数据技术为支撑的。然而,数据的高度依赖

            性要求用户让渡一定的个人数据使用权,并且人工智能所形成的用户画像
           (profiling)还将对用户的隐私进行“窥探”。例如,将个人的浏览记录、聊天内容
            和购物过程等数据片段进行组合,就可以勾勒出用户的行为轨迹,并据此推断出个

            人偏好、性格特征和行为习惯。此外,在现行的网络数据安全架构下,对于个人数
            据的被遗忘权、携带权等新型数据权利未能形成社会共识性的保护机制,数据跨境
            流动管理等全球数据管理更是处于真空地带。例如,尽管微软公司近期出于隐私的
            考虑,删除了旗下的公开人脸识别数据库 MS Celeb,但这些数据早已在业内进行

            了广泛传播,并且基于这些数据而优化的算法更是无法消除其内嵌的对于个人隐私
                     ②
            的破坏。
                 数据质量缺陷以及算法平衡价值观念缺失所导致的算法歧视也是人工智能对

            社会治理所形成的一大挑战。实际上,算法的数据运用、决策机制以及结果表征等
            仍是基于开发者的主观价值选择而形成,开发者的潜在性偏见由此也可能被嵌入其
            中。此外,人工智能技术的甄别逻辑来自输入数据,如果数据本身不完整或者存在
            某种倾向性,算法就可能把数据中的干扰因素或数据噪音进一步放大或固化,进而





                ① Samuel Kaplan, Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial
            Intelligence, New Haven, CT: Yale University Press, 2015, p. 31.
                ② MS Celeb 数据库拥有将近 10 万人的面部信息,但其中部分数据的采集并未得到用户的
            授权。与此同时,在微软公司删除该资料库前,IBM、松下电气、辉达、日立、商汤科技、旷视
            科技等多个商业公司均使用了这一数据库。参见 Madhumita Murgia, “Microsoft Quietly Deletes
            Largest Public Face Recognition Data Set,” the FT Group, June 18, 2019, https://www.ft.com/content/
            7d3e0d6a-87a0-11e9-a028-86cea8523dc2。
            · 28 ·
   25   26   27   28   29   30   31   32   33   34   35