Page 36 - 《国际安全研究》2020年第1期
P. 36
人工智能时代背景下的国家安全治理:应用范式、风险识别与路径选择
术发展与应用所带来的社会风险同样需要构建完整的风险评估机制及保障体系,并
从安全技术和安全管理等层面来协同防范安全风险。为此,我们应在综合考虑人工
智能技术发展状况、社会环境、伦理价值等因素的基础上,加强对数据垄断、算法
歧视、隐私保护以及伦理道德等问题的预判,为人工智能技术的发展制定相应的规
范框架。例如,对于人工智能可能导致的结构性失业应进行系统性评估,据此及时、
合理地调整人才技能结构,使其适应新时期经济发展的需要。
与此同时,针对人工智能技术应用可能带来的法律、安全和伦理问题以及各个
发展阶段所存在的潜在风险,建立诸如技术风险评估机制、灾难性风险管理机制和
技术错误纠正机制等相关可管理安全(managed security)机制,从算法容错容侵设
①
计、漏洞检测和修复、安全配置等方面来增强人工智能技术自身的安全性。 此外,
还应提高人工智能技术的可检验性来加强技术应用的透明度与信任度,即人工智能
技术中的算法与数据在一定的条件下应当被完整保存和查验,相关企业也应为了公
众利益放弃妨碍进行问责的商业秘密与法律主张,尤其是具有高风险的公共领域内
②
应尽量减少使用具有黑箱特性的人工智能技术。 当然,也要积极地发展和应用各
类新型技术以弥补人工智能技术所存在的缺陷。例如,区块链技术的应用便能够有
助于解决人工智能在数据隐私、安全等方面的问题,从而打破现有的数据寡头垄断,
助力人工智能技术的良性发展。
(三)规范技术设计的价值向度以引导技术发展
人工智能技术本身是中性的,但要避免“技术的贪欲”带来的不良后果。而
将预设的价值向度嵌入人工智能的算法之中,并制定相应人工智能的正义目标,
就能够在一定程度减少人们对其的不当使用或恶意利用。针对人工智能的价值向
度,美国皮尤研究中心提出了三点建议:第一,人工智能技术研发应以全球民众
的利益为第一要义,因此需要加强国际合作以共同推动技术的发展以及应对可能
的挑战。第二,人工智能的价值向度必须突出“人性化”,因此必须确保人工智
能能够满足社会与道德的责任。第三,人工智能技术的使用应坚持以人为本,需
要通过适时地改革政治与经济体系,提高人机合作的效率和解决技术应用所导致
① Karen Yeung, “Algorithmic Regulation: A Critical Interrogation,” Regulation & Governance,
Vol. 12, No. 6, 2017, p. 22.
② Will Bunch, “AI is not a Quick-Fix Solution for Discrimination,” Human Resource Executive,
November 7, 2018, http://hrexecutive.com/ai-is-not-a-quick-fix-solution-for-discrimination/.
· 34 ·