智能战争新时代:AI如何重塑全球军事格局
【川透社编译报道】本文探讨了AI如何重塑战争的方式,并分析了其可能带来的不稳定因素。从无人机到决策支持系统,AI正在加速战争的速度、改变指挥方式,并带来前所未有的挑战与机遇。
自计算机诞生之初,它就与战争紧密相连。从二战期间破解纳粹密码的“巨人”(Colossus)1计算机,到冷战时期美国的防空系统,机器智能在军事领域的应用逐渐扩大。如今,随着AI技术的迅猛发展,军事领域正迎来一场深刻的变革。
实战环境的催化与指数级技术进步
乌克兰成为了AI技术发展的“试炼场”。小型、低成本的芯片能够引领无人机精确打击目标,这种技术曾经只掌握在超级大国手中。如今,它已经普及到了更多的国家和地区。在俄乌冲突中,双方都广泛使用了无人机进行侦察和攻击,这标志着无人机技术的应用范围已从少数几个超级大国扩展到更广泛的参与者。
![](https://trans.sisuer.cn/wp-content/uploads/2024/12/trans.sisuer.cn-2024-12-27_11-55-37.png)
与此同时,AI技术的进步也为无人机带来了新的能力。通过AI算法,无人机可以在没有GPS信号的情况下,依靠视觉或其他传感器数据找到并锁定目标,即使与操作员失去联系也能继续执行任务。这种自主性使得无人机能够在复杂的战场环境中保持高效作战,成为现代战争中的重要力量。
AI的应用远不止于前线。在后方,AI可以处理大量数据,帮助指挥官做出更明智的决策。AI可以从卫星图像、雷达数据、通讯记录等多源信息中提取有价值的情报,为指挥官提供实时的战场态势图。这种快速的数据处理能力使得军队能够在瞬息万变的战场上保持优势。此外,AI还可以根据战场动态实时调整作战方案,确保军队始终处于最佳状态。
自主武器系统的崛起与人类角色的变化
AI在军事中的最显著应用之一是自主武器系统(Autonomous Weapons Systems, AWS)2。无人机在乌克兰战场上发挥了重要作用,用于侦察和攻击敌人。AI不仅帮助无人机避开干扰,还能使其在失去与操作员联系的情况下继续执行任务。未来,可能会出现由AI控制的无人集群,通过数量优势压制敌方防御系统。
在前线,无人机从发现目标到实施攻击的过程中,AI的快速数据处理能力使其能够在攻击前筛选出所有坦克的位置,或通过分析光、热、声音和无线电波区分真假目标。AI还能选择最合适的武器来摧毁威胁。随着技术进步,AI“决策支持系统(Decision Support Systems, DSS)3”将能迅速应对整个战场的复杂局势,以前所未有的速度和规模找到并摧毁目标,改变战争的节奏和规模。AI还能选择最合适的武器来摧毁威胁。随着技术进步,AI“决策支持系统”将能迅速应对整个战场的复杂局势,以前所未有的速度和规模找到并摧毁目标,改变战争的节奏和规模。
尽管AI为指挥官提供了更清晰的战场视野,它也可能使战争更加模糊。随着AI系统给出越来越复杂且难以审查的建议,军队可能会担心如果不给予AI更多自由,就可能被对手击败。更快的战斗节奏和更少的停顿使得谈判停火或阻止冲突升级变得更加困难。AI的应用意味着战争速度将大大加快,人类可能不再是每个关键决策的核心。相反,人类可能会成为“环路上(On the Loop)4的一部分”,监督AI系统的运行,而不再参与每一个具体行动。这种转变可能使战争更加不透明,从而增加误判的风险。AI系统在没有人类干预的情况下采取行动,可能导致不可预见的后果。因此,如何在提高作战效率的同时确保伦理底线,是未来军事AI发展必须面对的重要课题。
大国之间的AI竞争与意识形态影响
AI战争的优势倾向于大型国家。虽然无人机成本降低,但将战场数字化所需的系统将极其昂贵。构建融入AI的军队需要巨大的投资,包括能够处理机密数据的云端服务器。陆军、海军和空军目前各自存在于独立的数据孤岛(Data Silos)5中,它们必须实现集成。此外,训练AI模型还需要访问大量的数据。
中美之间的科技竞争不仅仅是经济和技术上的较量,更是对未来军事主导权的争夺。两国都在大力投资AI技术,试图在这一领域取得领先地位。美国凭借其在基础研究和技术创新方面的优势,继续保持在AI领域的竞争力;而中国则依托庞大的数据资源和政府对私营企业的支持,展示了强大的发展潜力。尽管中国在伦理方面的宽松态度可能影响其全球接受度,但其在军事AI应用方面的进步不容忽视。
意识形态也是一个重要因素:集权国家是否能够充分利用一种鼓励将智能和洞察力推向战术最低层级的技术,仍然是一个未知数。
AI技术的应用不仅依赖于技术和数据,还受到意识形态的影响。集权国家可能更倾向于集中控制AI系统,而民主国家则更强调分散式决策和透明度。这种差异可能会在未来的军事AI发展中产生不同的路径选择。例如,集权国家可能会更愿意将AI应用于自动化决策,而民主国家则可能更加注重人类在决策过程中的参与。中国的数据优势和政府对私营企业的控制力为其AI发展提供了强有力的支持,但其在伦理方面的宽松态度可能会影响其在全球范围内的接受度。美国则凭借其在基础研究和技术创新方面的领先地位,继续保持在AI领域的竞争优势。
国际法律与伦理挑战
如果不幸爆发第一次由AI驱动的战争,国际法可能会受到严重挑战。因此,现在必须考虑如何限制破坏并确保战争的可控性。例如,中国应该响应美国的呼吁,排除AI对核武器的控制。一旦战争开始,人与人之间的直接沟通渠道将变得尤为重要。AI系统应被编程为包含人类指挥官所默认的价值观和限制,包括对平民生命价值的隐含评估,以及避免某些可能导致局势恶化的打击,如针对核预警卫星的攻击。
目前,国际法对于AI在军事中的应用尚缺乏明确的规定。随着AI技术的快速发展,国际社会需要共同努力,制定相关的法律法规,确保AI的应用不会导致不可控的后果。为了确保AI系统在军事中的应用符合伦理标准,开发者需要在设计阶段就考虑到这些问题。AI系统应遵循国际人道法,尊重人权和国际法的基本原则,确保其行为始终符合道德和法律的要求,并能够评估攻击行动对平民的影响,在必要时自动终止攻击。此外,AI系统还应该具备自我学习和适应的能力,以应对不断变化的战场环境。【全文完】
来源:《经济学人》2024年6月20日刊 | 作者:不详
原文标题:AI will transform the character of warfare
- Colossus: 指的是第二次世界大战期间英国情报机构用来破解德国密码的早期电子计算机。 ↩︎
- 自主武器系统 (Autonomous Weapons Systems, AWS):指能够在没有人类直接干预的情况下,自主选择和攻击目标的武器系统。 ↩︎
- 决策支持系统 (Decision Support Systems, DSS):决策支持系统是一种基于计算机的技术,旨在帮助指挥官或操作员在复杂环境中做出更明智的决策。 ↩︎
- 环路内 (In the Loop):指人类操作员在每次关键决策中都参与进来,通常是手动确认或批准AI系统的建议。
环路上 (On the Loop):指人类操作员监督AI系统的运行,但不再参与每一次具体行动。 ↩︎ - 数据孤岛 (Data Silos):是指不同部门或组织之间的数据无法有效共享和整合,导致信息分散和孤立。 ↩︎