Page 45 - 《国际安全研究》2023年第5期
P. 45

2023 年第 5 期

               杂的相互作用影响,当故障意外发生时,可能从一个子系统迅速扩散到另一个子系
                                                              ①
               统,极微小的问题也可能迅速扩散导致系统的崩溃。   同时,考虑到竞争性作战环
               境的影响,战略力量指控系统倾向于追求更快的操作速度和先发制人的时间优势,

               这些因素都增加了意外事故发生和风险升级的可能。因此,“星链”内部出现事故
               灾难引发危机事件的脆弱性是无法规避的。
                   就外部而言,“星链”系统的复杂性与军事系统的复杂性相互叠加,进一步增加

               了危机事件爆发的概率。战争领域存在诱发危机的一系列不确定因素。谢林指出:“暴
               力,尤其是战争,是一种混乱的和不确定的行为,存在着高度的不可预测性。它依赖
               于由难免犯错的人组成的不完美政府作出的决定,依赖于难免有错的通信和警报系统,
               以及未受检验的人员和设备。”   美国推动“星链”的军事化应用进程,导致其内部
                                           ②
               的不确定因素与外部军事系统的不确定因素交互作用,加剧危机意外爆发的风险。譬
               如,作为“星链”军事应用的重要方向,天基预警系统日益成为预防弹道导弹突袭的
               重要手段,与之相对应,攻击对手的天基预警卫星也成为达成战略突袭目标的关键步

               骤,被普遍视为发动战争的信号。具体而言,攻击方式存在激光摧毁、激光遮挡、电
               磁干扰、动能杀伤以及摧毁核杀伤链的天基部件等,不同的方式也代表并传递了不同
               程度的升级信号。然而,考虑到当前“星链”星座涵盖卫星的庞大规模,以及日益拥
               挤的外层空间环境,有学者指出:“在卫星发生故障时,极难将故障准确归因于自然

               或意外原因(例如空间气象灾害、空间碎片的影响)、无意干扰还是蓄意侵略。”   针
                                                                                     ③
               对潜在对手的战略猜疑,将导致意外事件被误判为蓄意攻击行为,或者将低烈度的攻
               击行为解读为高烈度的攻击行为,都会导致危机的意外升级。

                   此外,“星链”与人工智能识别系统的结合,还可能产生“自动化偏见”,从
               而进一步加剧“意外战争”发生的风险。所谓“自动化偏见”,即在危机决策过程
               中,面对海量数据信息和充满不确定性的战场环境,作战指挥员倾向于过度信任人
               工智能系统,并遵守它所作出的运算结果。   在“人工智能 +‘星链’”的情报收
                                                      ④
               集与预警模式下,一方面,人类缺乏对于海量情报信息的整体分析和全盘掌控能力,

                  ①  保罗·沙瑞尔:《无人军队:自主武器与未来战争》,朱启超等译,世界知识出版社 2019
               版,第 169 页。
                  ②  托马斯·谢林:《军备及其影响》,毛瑞鹏译,上海人民出版社 2017 年版,第 80-81 页。
                  ③  Peter Martinez, “Challenges for  Ensuring the  Security,  Safety and  Sustainability of  Outer
               Space Activities,” Journal of Space Safety Engineering, Vol. 6, No. 2, 2019, p. 67.
                  ④  Matthijs  M.  Maas,  “How  Viable  Is  International  Arms  Control for  Military  Artificial
               Intelligence? Three Lessons from Nuclear Weapons,” Contemporary Security Policy, Vol. 40, No. 3,
               2019, pp. 18-19.

                                                                                     · 43 ·
   40   41   42   43   44   45   46   47   48   49   50