【大纪元2024年08月07日讯】(英文大纪元记者Petr Svab报导/秋生编译)多位专家表示,由人工智能(Artificial Intelligence, AI)驱动的尖端武器正在成为全球安全隐患,尤其是当其掌握在中共手中。
专家们认为,中共急于在军事上超越美国,因此不太可能注意与致命的人工智能技术相关的保障措施,而人工智能技术本身正变得越来越危险。他们警告说,这种技术的性质很容易助长中共政权以及整个人类的一些最坏的心理倾向。
智库安全政策中心(Center for Security Policy)高级研究员、中国战略评估专家、《大纪元时报》撰稿人布拉德利‧塞耶(Bradley Thayer)说,“影响相当大,可能相当于核革命。”
杀手机器人
人工智能开发者、人工智能营销公司Ink的联合创始人亚历山大‧德‧瑞德尔(Alexander De Ridder)表示,目前,人工智能驱动的自主武器的开发进展迅速,非常不幸。
他对《大纪元时报》说,“它们正在迅速变得更高效、更有效”,不过,“它们还没有达到可以取代人类的地步。”
自主无人机、坦克、舰船和潜艇已经成为现实,此外,还有一些更奇特的模式,比如中国开发的已经装备机枪的四足机器狗。
甚至连科幻恐怖片中的人工智能仿人机器人也在生产中。当然,它们在现实世界中仍然相当笨拙,但德‧瑞德尔认为,它们不会笨拙太久。
他说,“这种机器人的能力正在迅速提高。”
德‧瑞德尔认为,一旦这些机器人的实用性和可靠性达到市场要求,中国很可能会凭借其制造实力开始大规模生产,“仿人机器人将充斥市场,然后就看编程人员如何使用它们了。”
这也意味着军事用途。他说,“这是不可避免的。”
人工智能专家、GIT研究所(GIT Research Institute)创始人、FileMaker公司前首席技术官詹姆斯‧邱(James Qiu)说,这种人工智能机器在处理图像以辨别物体方面非常有效,譬如说,它们可以通过光学传感器探测到人类,这使得人工智能机器人非常善于瞄准目标。
邱表示,“这是一个非常有效的杀人机器。”
人工智能将军
一家财富500强跨国公司的人工智能专家兼数据研究负责人杰森‧马(Jason Ma)表示,在更广泛的层面上,多个国家正在开发能够为战场决策提供信息和协调的人工智能系统——电子将军。他不想提及该公司的名字,以免给人留下他在代表该公司发言的印象。
在中国共产党的军队——中国人民解放军(PLA)最近进行的一场战斗演习中,人工智能直接参与指挥。
杰森‧马指出,美国军方也有这方面的项目,“这是一个非常活跃的研发课题。”
他解释说,需求是显而易见的。从历史背景和过去的情报到近乎实时的卫星数据,再到战场上每台摄像机、麦克风和任何传感器的毫秒级输入,战场决策都要参考大量数据。
他说,人类“很难”处理如此不同的大量数据流。
他说,“战争越复杂,做出正确决策就变得越重要,就需要在几秒甚至几分之一秒内快速整合、总结所有这些信息。”
人工智能破坏稳定
专家们一致认为,人工智能武器已经在重新定义战争,但其后果却更为广泛。塞耶说,这项技术正在使世界变得越来越不稳定。
从最基本的层面上讲,人工智能驱动的武器瞄准可能会使击落洲际弹道导弹、探测和摧毁潜艇以及击落远程轰炸机变得更加容易。
塞耶认为,这可能会削弱美国的核三合一能力,让对手肆无忌惮地“升级到核级别以上”。
他说,“人工智能将影响到核三合一中的每一个组成部分,而我们在冷战期间开发并理解这些组成部分对于稳定的核威慑关系是绝对必要的。”
他说,“冷战期间人们普遍认为,核大国之间的常规战争是不可行的,但人工智能正在颠覆这一认识,因为人工智能在两个核国家之间引入了常规冲突的可能性。”
他预测说,如果人们继续不加限制地开发人工智能驱动的武器系统,这种不稳定性只会恶化。
他说,尽管人工智能正在极大地影响战场,但还不是决定性的。
他说,如果人工智能达到了“不使用核武器就能打核战争的效果”,那世界就会陷入火药桶。
他说,“这是很有可能的,那将是一个极其危险的局面,也是一个令人难以置信的破坏稳定的局面,因为它迫使可能受到攻击的一方先发制人,不是忍受攻击,而是主动侵略。”
他说,在战争术语中,这一概念被称为“损害限制”,因为“你不想让别人先动手,因为你会受到重创,所以你要先动手;这将极大地破坏国际政治的稳定。”
令人担忧的不仅仅包括杀手机器人或无人机,还有各种非常规的人工智能武器,例如,可以开发一种人工智能来发现电网或供水系统等关键基础设施的漏洞。
控制此类技术扩散显得尤为艰巨。人工智能只是一个软件。即使是最大的模型,也可以放在普通硬盘上,并在小型服务器群上运行。简单但杀伤力越来越大的人工智能武器,如杀手级无人机,可以在不引起警觉的情况下分批进行运输。
塞耶说,“纵向和横向扩散的动力都是巨大的,而且很容易做到。”
德‧瑞德尔指出,中国希望在世界舞台上被视为负责任的国家。
但其他专家也指出,这并没有阻止中国共产党向其它在声誉上不那么受限制的政权和组织提供武器或帮助其实施武器计划。
如果中共向恐怖组织提供人工智能武器,从而使美军陷入无休止的不对称冲突,那也不足为奇。中共甚至可以保持距离,只提供零部件,让代理人组装无人机,就像中国供应商向墨西哥贩毒集团提供芬太尼前体,让他们制造、运输和销售毒品一样。
例如,中共长期以来一直在援助伊朗的武器项目。反过来,伊朗也向该地区的恐怖组织提供武器。
塞耶先生说,伊朗几乎没有因此而受到打击。
受人类控制
至少在美国及其盟国中,人们普遍认为,防止人工智能武器造成不可预见的破坏的最关键保障是让人类控制重要决策,尤其是涉及致命武力的使用的决策。
德‧瑞德尔说,“在任何情况下,都不能允许任何机器自主独立地夺走人的生命。”
这一原则通常被概括为“受人类控制”(Human in the Loop)。
德‧瑞德尔说,“人是有良知的,能在清晨醒来时感到悔恨,并为自己的所作所为承担后果,能吸取教训,不再重复暴行。”
然而,一些专家指出,这一人道原则已经被人工智能能力所拥有的战斗性质所侵蚀。
例如,在乌克兰战争中,乌克兰军方不得不为其无人机配备一定程度的自主能力,以引导它们飞向目标,因为它们与人类操作员的通信受到了俄罗斯军方的干扰。
杰森‧马说,由于无人机机载计算机的功率有限,这种无人机目前只能运行较简单的人工智能,但随着人工智能模型和计算机的速度越来越快、效率越来越高,这种情况可能很快就会改变。
杰森‧马说,苹果公司已经在研发一种可以在手机上运行的人工智能,“未来极有可能将其装入一个小型芯片中”。
此外,在一次同时部署数百架甚至数千架无人机的重大冲突中,它们可以共享计算能力,执行更复杂的自主任务。
他说,“一切皆有可能,这已经超出了科幻小说的世界,而是是否有一群人愿意投入时间去研究这个实实在在的技术。”
前海军情报官员、中国问题专家詹姆斯‧法内尔(James Fanell)认为,出于必要而取消人类控制,这并不是一个新概念。
他举了美国导弹巡洋舰和驱逐舰上部署的宙斯盾作战系统(the Aegis Combat System)的例子。它能自动探测和跟踪空中目标,并发射导弹将其击落。法内尔说,通常导弹发射由人类操作员控制,但也有办法将其切换到自动模式,比如当目标太多,人类操作员无法追踪时,系统会自行识别并摧毁目标。
在大规模无人机战争中人工智能会协调数千架无人机进行系统性攻击。与人类必须批准每次射击的一方相比,让人工智能自主射击的一方将在速度上获得很大优势。
杰森‧马说,“在单个射击层面上讲,人类必须放弃控制,因为他们无法真正如此迅速地做出所有决定。”
德‧瑞德尔指出,无人机独自射击另一架无人机,这在道德上是可以接受的,但这可能会在战场上释放出大量的自主射击,而且战场上可能还有人类,这就会造成难以计数的附带伤亡。
没有规则
大多数专家都认为,无论人工智能保障措施是否可行,中国共产党都不太可能遵守。
杰森‧马说,“我不认为中国(中共)会有任何需要谨慎的界限,只要有可能,他们就会去做。”
法内尔说,“我不认为中国(中共)会限制自己使用它,他们会试图利用它,并能比我们更快地学会利用它。”
杰森‧马说,“受人类控制”原则可以简单地重新解释为适用于“更大的整体的战斗层面”,而不是“个人射击层面”。
法内尔说,然而,一旦人们接受了人工智能在某些情况下可以自行射击的事实,受人类控制原则就变得可塑了。
他说,“如果你愿意在战术意义上接受这一点,谁又能保证你不会将其上升到战争的最高层面呢?”
他说,“这是这种技术的自然演变,我不知道我们能做什么来阻止它。在战争中,你不可能有道德准则规定:让我们遵守《昆斯贝里侯爵夫人拳击规则》(the Marquess of Queensberry Rules of Boxing),这是不可能的。”
多位专家一致认为,即使人类能够控制宏观决策,比如,是否执行特定任务,人工智能也能轻易主导决策过程。
危险不是来自表现不佳的人工智能,而是来自工作得如此出色,以至于让人类操作员产生信任感的人工智能。
德‧瑞德尔对超级人工智能将远远超过人类的预言持怀疑态度。不过他也承认,人工智能在某些方面显然超过了人类,尤其是速度。它可以对堆积如山的数据进行运算,并几乎立即得出结论。
杰森‧马和詹姆斯‧邱认为,要想弄清人工智能究竟是如何得出结论的,几乎是不可能的。
德‧瑞德尔说,他和其他人正在研究如何将人工智能限制在类似人类的工作流程中,从而使其推理的各个步骤更加透明。
但杰森‧马承认,考虑到所涉及的数据量惊人,如果人工智能解释每条信息是如何影响其推理的,人类操作员一定会不知所措。
他说,“如果人类操作员清楚地知道这是在人工智能处理了数个TB的数据后做出的决定,那么在大多数情况下,他将没有勇气推翻这个决定,所以我想,是的,这只是走形式。‘受人类控制’的说法只是聊以自慰,实际上人类会很快放弃控制权。”
公众压力
德‧瑞德尔说,即使人类只是名义上控制着一切,这仍然很重要,“只要我们让人类知情,我们就能让人类负起责任。”
事实上,所有专家都认为,公众压力很可能会限制人工智能武器的开发和使用,至少在美国是这样。
杰森‧马举了一个例子,在员工的反对下,谷歌终止了一份国防合同,但他无法想像在中国会出现类似情况。
詹姆斯‧邱对此表示赞同。他说,“中国国内的任何东西都是中共可以利用的资源,你不能说,‘哦,这是一家私营公司’,因为中国本来就没有私营公司。”
但德‧瑞德尔说,即使是中共也无法完全摆脱公众的情绪,“只有民众愿意合作,政府才能生存。”
然而,并没有迹象表明,中国民众会认为人工智能的军事用途是一个迫切的问题。
杰森‧马说,恰好相反,中国的公司和大学似乎正急于获得军事合同。
德‧瑞德尔呼吁“建立一个可以执行的国际监管框架”。
目前还不清楚如何对中国执行这样的法规,因为中国长期以来一直拒绝美国对其军事发展施加任何限制。长期以来,美国一直梦想和中国坐下来讨论核裁军问题。最近,中国拒绝了美国提出的让中国保证不使用人工智能做出核打击决定的要求。
多位专家表示,如果美国对自己的人工智能发展进行监管,可能会造成战略漏洞。
詹姆斯‧邱说,“中共就会很好地研究这些监管规定,并利用其作为攻击的工具。”
塞耶认为,就算达成了某种协议,中共在信守承诺方面的记录也不佳,“任何协议都是画饼充饥。”
路在何方?
德‧瑞德尔希望各国能以破坏性较小的方式使用人工智能。他说,“有很多方法可以利用人工智能来实现自己的目标,而不需要向对方派遣成群的杀手级无人机,除非迫不得已,没有人希望发生这些冲突。”
不过,其他专家认为,只要中共能看到一条通往胜利的清晰道路,就不介意挑起这样的冲突。
法内尔说,“中国人不会受制于我们制定的规则,他们会不惜一切代价取得胜利。”
塞耶认为,不能依赖人工智能军事顾问的耳语,虽然这种顾问通过处理大量数据和制定令人信服的作战计划来灌输信心,但可能会特别危险,因为它可能会在以前没有胜利的地方创造出胜利的愿景。
塞耶说,“你可以看到这对决策者有多大的吸引力,尤其是对像中共这样具有超强侵略性的决策者,这可能会使其侵略性变得更强。”
法内尔说,“要想阻止它,只有一个办法,那就是打败它。”
五角大楼网络评估办公室前顾问查克‧德卡罗(Chuck de Caro)最近呼吁美国开发可使计算机芯片失效的电磁武器。他在Blaze上的一篇专栏文章中提出,有可能开发出能让某种芯片失效的能量武器。
他说,“很显然,没有正常运作的芯片,人工智能就无法工作。”
另一种选择可能是开发一种可以起到威慑作用的人工智能超级武器。
法内尔问道,“美国是否正在进行一项人工智能版的‘曼哈顿计划’?能够对中华人民共和国和中国共产党产生长崎和广岛那样的影响,能让他们意识到,‘好吧,也许我们不想走到那一步,那不是相互确保毁灭吗?’;我不知道,但(如果我是美国领导人)我会这样做。”
这可能会让世界陷入类似冷战的对峙状态。这并不是一种理想状态,但很可能比放弃军事优势给中共更可取。
杰森‧马说,“每个国家都知道这样做很危险,但没有人能停下来,因为他们害怕自己会被(对手)抛在后面。”
德‧瑞德尔说,可能需要一场巨大的冲击才能阻止人工智能军备竞赛。他说,“我们可能需要一场世界大战,造成巨大的人类悲剧,才能最终禁止使用自主人工智能杀人机器。”
原文:CCP Develops AI Weapons, Ignoring Global Risks刊登于英文《大纪元时报》。
责任编辑:任子君#