【时事军事】若AI道德底线破防 美国面临选择

人气 1287

【大纪元2023年12月14日讯】今日社会,武器和军队作用,被赋予比杀戮更深的意义。强大的军力,往往用作威慑,维持世界和平及人类安全。战争,虽然变得隐蔽,但从未停止。【时事军事】带您到最前面,看清正邪之争的细节和真相。

由于竞争对手人工智能的快速发展和实施,迫使美国空军准备与对手具自主能力的机器人作战。但是,美军领导层是否仍然坚持在严格的道德标准下思考人工智能的发展和应用似乎正在面临着巨大考验。

上周在华盛顿特区举行的里根国防论坛上讨论的很多问题至今热度不减,有些涉及到人类命运与对峙阵营冲突而引发的敏感问题一直备受关注。特别是在印太地区的军事竞争中,在对峙各方没有达成关于限制人工智能发展以维护人类安全的有约束力共识的情况下,人工智能领域的竞争就显得更加棘手。

完全自主的系统具有在没有人为干预的情况下追踪、识别和摧毁目标的能力。但是,到目前为止,这种行动至少在美国是受到政府和五角大楼限制的。他们解释说,人工智能的应用使系统的运转速度、准确性以及其它一系列好处可以使决策层受益匪浅,但同时要确保致命武器的攻击是在人类决策者的控制之下。

美国政府和军方虽然仍在坚持这项原则,但是美国空军部长法兰克‧肯德尔(Frank Kendall)也表示,不使用自主人工智能可能很快就会导致战斗失败。原因是,当人工智能启用时,处理速度、资料组织和分析会呈指数级加快。

肯德尔12月2日表示,空军和太空部队大力推动人工智能的开发和部署,将其作为应对中共和其它对手构成的安全挑战的关键要素。

肯德尔说,时间是战场上的关键参数。人工智能能够比人类更准确、更快速地完成更复杂的任务。如果靠人类去了解资讯,你就输了。你可以让人类监督和观察人工智能正在做什么,但如果你试图干预,你就会失败。关键的区别在于时间,人做一件事所需要的时间和人工智能做事所需时间的区别是本质的区别。

肯德尔的言论并不新鲜,但是,鉴于肯德尔是美国空军乃至国防科技发展的重量级人物,并在颇具影响力的里根国防论坛的一次会议上发表这些言论,不禁让人们为美国一贯坚守的人工智能发展的最后底线失守感到担忧。的确,肯德尔为美国空军使用人工智能作为更大规模推动军事现代化的努力增添了额外的分量,这也是在对手不断加大挑衅力度情况下的无奈选择。

肯德尔明确表示,美国空军正在迅速采取行动,利用人工智能改变范式的影响,及其对武器系统、指挥控制、数据处理、瞄准、威胁识别和网路的综合处理能力。同时,五角大楼需要更多地了解和巩固人工智能在某些领域的整合,并且在任何有关武器、自主性和人工智能系统应用的决策中,将道德参数作为重要因素考虑。中共等竞争对手正在迅速缩小与美国在人工智能领域的差距,这些潜在的对手可能不会倾向于考虑对使用人工智能支援的自主武器进行任何形式的道德限制。

特别是当前,中共拒绝与美国进行军事领域外交沟通的情况下。在上个月举行的中美领导人峰会上,中共党魁曾承诺将与美国就人工智能领域的有关限制条约进行磋商,但至今迟迟没有下文。这个事实让肯德尔的担忧不无道理。

肯德尔明确表示:“我非常重视社会舆论和《武装冲突法》。政策是围绕法律制定的,你不是针对机器执行法律,而是针对人执行法律。我们的挑战不是限制人工智能的用途,而是如何让人们为人工智能的行为负责。我们要做的是弄清楚如何将《武装冲突法》适用于人工智能的应用。在我们部署这些功能并投入使用之前,政府部门应该做些什么?谁要为人工智能的表现负责?”

多年来,五角大楼的条令规定,任何有关使用致命武力的决定都必须由人类做出。但尖端武器开发商强调,高速人工智能数据处理和瞄准可以极大地提高人类决策的速度和效率。

肯德尔说,政府方面最重要的工作是彻底了解这项技术,包括它的细节和它的工作原理。要创造性地帮助业界找到该技术的新应用,并开发评估它的方法,使我们有信心确保当它掌握在我们的军队手中时,可以不违反道德地、可靠地使用它。

人们认为,美国不会在仍然保持人工智能领域技术领先的情况下,为了保持相对于对手的技术优势,而放弃对人工智能发展的道德责任。但是,在没有达成人类共识并形成有约束力的条约的情况下,这种状态是脆弱的。如果一方已经破坏了道德底线并给人类安全造成威胁,那么另一方以降低竞争优势为代价的道德坚守,就显得意义不大了。因此,在人工智能领域的军备竞赛是非常危险的。

更大的问题是,至少到目前为止,中共并没有在人类安全和道德约束的条件下,响应美国的倡议,为形成一个有约束力的国际公约而采取任何行动。在世界范围,除美国和一些西方国家的自我规范外,在自主人工智能这个极其危险领域的技术应用是不受任何实际约束的。

肯德尔对时间的提及几乎完全准确,在未来战争中时间至关重要。人们只要看一下现代战争中,从传感器到射手或者说从情报、监视和侦察到前线作战单位做好攻击准备的过程是怎样操作的,就能够理解这一点。

前美国空军欧洲司令杰弗瑞‧哈里吉安(Jeffrey Harrigian)谈到过如何在危机边缘做出关键决策,并利用人工智能带来的速度优势进行战斗。其过程就是由传感器提供情报,寻找、验证并锁定高价值目标,所有这些过程都可以通过人工智能得到大幅度改进。

鉴于人类无法复制人工智能的分析和处理速度,并且人工智能系统也无法复制人类认知中许多更主观但有影响力的细微差别,因此,未来可能的最佳前进道路似乎应该是两者的结合。美国空军领导层认为,未来应该是人机协作的时代,对协作战斗机项目的投资可能将帮助美国实现这一目标。空军快速开发的第六代战斗机和忠诚僚机无人机,也称为“协作战斗机”,代表了有人与无人机组队的最新前沿。

美国陆军也在开发类似的系统,陆军的“融合项目”利用人工智能将传感器到射手的时间从20分钟缩短到几秒钟。也就是说,从传感器发现目标到射手瞄准并攻击目标,整个过程由人工智能系统执行时,一系列不同参数包括侦察、识别、分类、锁定目标,选择最佳作战单元,目标数据传输,经过分析优化后提出决策建议,整个过程可以在几秒或几毫秒内完成。所有这些程序和分析功能都可以在无需决定是否使用致命武力的情况下进行。本质上说,从发现目标到射手准备好射击可以由电脑立即完成,同时将使用致命武力的最终决定权留给人类。

人工智能分析的准确性、精度、数量和速度不断提高,促使五角大楼的一些武器开发商探索“环外”自主应用。这意味着,人工智能武器在用于纯粹的防御性目的时,在没有人类干预的情况下可能发挥更好的作用并挽救生命。比如,各种来袭的导弹、火炮、火箭炮或无人机,可以在几秒钟内被自主人工智能武器发现、识别和摧毁。

其实,关于人工智能的道德失守不在于自主武器是用于进攻还是防御,只要“环外”自主应用的口子一开,人工智能就将失去控制。人们似乎已经感受到来自内外的各种力量,试图解开最后一条拴住人工智能的锁链。

撰文:夏洛山(《大纪元时报》记者,曾经历过十几年的军队生活,主要从事军队的教学和一些技术管理工作)
制作:时事军事制作组
关注《时事军事-夏洛山》:https://www.ganjing.com/zh-TW/channel/1f6pro4fi585ppZp9ySKkwd0W19f0c

责任编辑:连书华#

相关新闻
【军事热点】以军扩大加沙地面攻势 数百俘虏受审
【时事军事】A-50U上前线 俄军底牌不多了
【时事军事】A-10之争尚未结束
【军事热点】哈马斯拿人质威胁 以军用打击回应
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论