【时事军事】中共触碰人类AI之痛 引发美国虚拟战争

【大纪元2021年07月01日讯】2020年9月,五角大楼在亚利桑那州尤马训练场举行了“融合”项目展示性演习,展示了美军实施“全域联合作战”的最新能力,也揭开了美军2023年至2027年“对抗无人化”战略的面纱。

“全域联合作战”,主要执行三项基本任务:一是抵消敌人的远程武器系统,打击其处于战略、战役纵深的机动兵力。二是消灭“反介入/区域拒止”体系中的兵力和远程作战系统。三是为己方兵力消灭敌人军事目标、力量的任何机动创造良好条件。

近几年,美国国防部正在将所有隶属于国防部的勤务部门融合在一个统一的全球联合高防护性网络内,即全域联合指挥控制(Joint All-Domain Command and Control, JADC2)系统。用一个简单的情景可以描绘其功能之强大:设想在前线,任何一名士兵所看到的情景,通过网络,使系统上所有人都可以同时看到。

全域联合指挥控制系统,通过强大的人工智能和信息传输功能,融合了包括地面、海上、空中和太空的所有传感器、情报信息、武器装备和作战系统,使作战可以在完全没有人类参与的情况下,更加高效、快速地进行。

也就是说,美国已经具备大规模发展致命性自主武器系统(Lethal Autonomous Weapon Systems, LAWS)的所有条件。

由于致命性自主武器系统违背人类伦理,就相当于把人类的生杀大权完全交给人工智能掌握,所以它不是美国追求的目标。但是威胁环境的变化,迫使美国军方在这个问题上面临痛苦的选择。

我们从五角大楼开展的一些试验和演习,来了解人工智能在现代武器系统中已经做到的和将会做到的事情,以及它对未来战争的影响。

2020年8月20日,美国国防高级研究计划局(DARPA)组织了一次被称为“阿尔法狗斗”的虚拟空战试验。网上直播吸引了成千上万的观众目睹了两架战斗机的格斗。

一架(红方)由人工智能操控,另一架(蓝方)由经验丰富的战斗机飞行员驾驶。空战中,尽管这位飞行员训练有素,却大比分失利。赛后这位飞行员坦言,红方突然、不可预测的行动令其十分震惊。最后一轮空战时,飞行员逐步开始理解计算机程序可能采取的行动,但他也没能改变败局,只是比上一轮多坚持了18秒。

空天侦察装备,是全域联合指挥控制网络形成杀伤链的关键环节。尤马训练场演习期间,来自无人侦察机和侦查卫星的情报数据,发送给美国刘易斯-麦科德陆空联合基地,在这里人工智能计算机对目标迅速识别、定位。

作战指令通过高速保密信道发送给作战系统,演习中使用了两门XM1299自行榴弹炮。榴弹炮发射XM1113 Excalibur ER增程精确制导炮弹,击中了靶场的T-72坦克和铠甲-S1防空火炮两个目标。准备和实施攻击的过程中,决策中心和其它指挥环节并未参与。

整个作战过程,从发现目标到将其摧毁仅用20秒,而之前需要的时间不少于20分钟。这场演习的一个重要看点是,在决策过程中回避了人的介入,在人工智能自主行动下达成了在20秒内摧毁目标的结果。

尤马演习中还出现了城市战场背景下实施作战的战斗机器人。战斗机器人借助人工智能和视频系统独立识别目标并自主采取行动,操作员在战斗机器人绝大部分行动过程中只是一名观众。据说在机器人开火前需要把信息发送给操作员,也就是说生杀大权还掌握在操作员手上,而这也正是人工智能发展中争议最大的部分。

尤马融合项目演习总导演罗斯‧科夫曼(Ross Coffman)准将称:“能否在没有人类参与的情况下,自动做到这一点?我认为,技术上可以实现。但美国陆军有自己的伦理准则。人应该处于回路之中。”

在现代指挥和控制中,有一个叫做“OODA循环”的东西在起着主导作用。它是美国空军上校约翰‧柏伊德(John Boyd)提出的决策方法。这个方法是由观察(Observe)、调整(Orient)、决定(Decide)与行动(Act)组成的一个往复循环。OODA循环实际上成为阻止人类坠入自我杀戮陷阱的保护伞。

但是,美国军事领导人担心传统的人类决策过程可能会变得过时,因为人类不能像人工智能那样快速反应。而这一点正在被他们的对手利用,他们担心中共正在开发致命性的自主武器系统,他们断言中共不会像其潜在对手那样有道德上的责任感。

很明显,你不必是一个军事天才也会知道,那个跳过OODA循环不顾及道德责任,驱动致命性自主武器系统的军队,很可能会主宰战斗空间。

这正是人工智能伦理学家一直在警告的事情。将人类排除在外,并将生杀大权完全交给一个自主的武器系统,不仅仅是一个道德滑坡的问题,它的毁灭性不亚于爆发核战争。

在这一问题上,中(共)国一直处于黑箱状态。2017年,在美国阿西洛马召开的“有益的人工智能”(Beneficial AI)会议上,数百名专家签署了具有重大历史意义的“阿西洛马人工智能准则”(Asilomar AI Principles),但参加会议的中国专家仅有吴恩达一人。而在著名的牛津大学生命未来研究所倡议的“禁止自动化武器公开信”上签名的3462位研究人员中,只有3位中国研究者且都来自香港中文大学。中(共)国显然与西方国家和研究机构对人工智能的伦理和安全性问题缺乏基本共识。

在中共的宣传中,中共认知的未来作战体系将由“无人+智能”构成,其本质是无人作战力量纯粹在数据和信息驱使下形成新的作战体系,完全凭借机器速度获得高维度作战能力。这里跟伦理、道德没有半点关系。

中共强调党指挥枪,它不允许军队被有头脑、有独立人格的人控制。讽刺的是在中共内部有一种观点,就是将人类排除在外的系统更可信赖,因为电脑不会试图颠覆中共最高指挥机构的命令。因此,中共希望将更多的精力转向人工智能或智能化武器,以确保中共能够将枪杆子牢牢握在手中。

中共对人工智能在军事领域的应用,来自于对美国的军事研究,但中共凭其特有的、没有道德底线的军事文化和物质资源,在方法论层面逐渐与美国和主流国际社会脱离。在军事战略上转向以抵消为导向的竞争与创新,在人工智能领域靠放弃人类基本准则获得所谓“跨越式发展”。

美国军方已经清醒地看到这一点,并开始策划新的行动。五角大楼将在今年秋天,针对一个代表中共国的虚拟国家,展开一系列的战争推演。在五角大楼的战争想定中,这个虚拟国家在军事能力上不受美国对人工智能参与战争的道德约束。就是测试美国目前需要有人类参与的军事力量和人工智能系统,与没有人类参与的拥有人工智能系统的军队对抗。

美国军方有一部分人认为,这场针对虚拟中共军队有史以来最先进的战争,其结果可能会颠覆人类文明的历史。如果美国在这场虚拟战争中失败(很多人认为一定是这个结果),那么向国会推销将人类和OODA循环排除在人工智能系统之外,肯定会更容易。这次战争推演的结果应该为政府提供它所需要的一切理由,以证明大规模开发致命性自主武器系统的合理性。

负责参谋长联席会议全域联合指挥与控制工作的丹尼斯‧克拉尔(Dennis Crall)中将说:“我们的对手参与的速度,可能将比我们看到的任何东西都快。敌人很可能使用武装机器人,在没有人类监督的情况下开火。”

陆军未来司令部负责人约翰‧穆雷(John M. Murray)将军说:“我确实认为有一些国家没有美国军队那样的道德基础。某些国家的军队……没有这种道德底线。因此,这确实让我担心。我确实为此失眠……我们必须考虑这个问题。”

按理说,地球上任何国家之间的战争都算是人类之间的事,当面对人类共同灾难时,应该都回到人类的共同立场上。但中共不是,中共在致命性自主武器系统上没有道德底线的追求,已经使全人类面临威胁。

打个比方,冷战期间,对峙双方用核威慑阻止对方的核攻击,考虑到无数生命甚至地球的毁灭,谁也没有使用过核武器。今天的致命性自主武器系统就好比一枚“核弹”,所不同的是这枚“核弹”的发射,是以开始致命性自主武器系统的大规模开发为标志。而该系统的使用,就相当于“核爆”。中共现在的行为,等于已经发射了“核弹”。

撰文:夏洛山
订阅时事军事:https://www.youtube.com/playlist?list=PL3V8J3zzkEXK8SJFR7Vg-9H1Ct0NU8Ay9
《时事军事》制作组

责任编辑:连书华#

相关新闻
【时事军事】美国核潜艇 悄悄主宰海洋67年
【时事军事】中共空军J-20 的真面目
【时事军事】中共打压 催生澳洲远程导弹
【时事军事】伊萨克斯项目复苏 科幻将成为现实
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论