【時事軍事】若AI道德底線破防 美國面臨選擇

人氣 1287

【大紀元2023年12月14日訊】今日社會,武器和軍隊作用,被賦予比殺戮更深的意義。強大的軍力,往往用作威懾,維持世界和平及人類安全。戰爭,雖然變得隱蔽,但從未停止。【時事軍事】帶您到最前面,看清正邪之爭的細節和真相。

由於競爭對手人工智能的快速發展和實施,迫使美國空軍準備與對手具自主能力的機器人作戰。但是,美軍領導層是否仍然堅持在嚴格的道德標準下思考人工智能的發展和應用似乎正在面臨著巨大考驗。

上週在華盛頓特區舉行的里根國防論壇上討論的很多問題至今熱度不減,有些涉及到人類命運與對峙陣營衝突而引發的敏感問題一直備受關注。特別是在印太地區的軍事競爭中,在對峙各方沒有達成關於限制人工智能發展以維護人類安全的有約束力共識的情況下,人工智能領域的競爭就顯得更加棘手。

完全自主的系統具有在沒有人為干預的情況下追蹤、識別和摧毀目標的能力。但是,到目前為止,這種行動至少在美國是受到政府和五角大樓限制的。他們解釋說,人工智能的應用使系統的運轉速度、準確性以及其它一系列好處可以使決策層受益匪淺,但同時要確保致命武器的攻擊是在人類決策者的控制之下。

美國政府和軍方雖然仍在堅持這項原則,但是美國空軍部長法蘭克‧肯德爾(Frank Kendall)也表示,不使用自主人工智能可能很快就會導致戰鬥失敗。原因是,當人工智能啟用時,處理速度、資料組織和分析會呈指數級加快。

肯德爾12月2日表示,空軍和太空部隊大力推動人工智能的開發和部署,將其作為應對中共和其它對手構成的安全挑戰的關鍵要素。

肯德爾說,時間是戰場上的關鍵參數。人工智能能夠比人類更準確、更快速地完成更複雜的任務。如果靠人類去了解資訊,你就輸了。你可以讓人類監督和觀察人工智能正在做什麼,但如果你試圖干預,你就會失敗。關鍵的區別在於時間,人做一件事所需要的時間和人工智能做事所需時間的區別是本質的區別。

肯德爾的言論並不新鮮,但是,鑒於肯德爾是美國空軍乃至國防科技發展的重量級人物,並在頗具影響力的里根國防論壇的一次會議上發表這些言論,不禁讓人們為美國一貫堅守的人工智能發展的最後底線失守感到擔憂。的確,肯德爾為美國空軍使用人工智能作為更大規模推動軍事現代化的努力增添了額外的分量,這也是在對手不斷加大挑釁力度情況下的無奈選擇。

肯德爾明確表示,美國空軍正在迅速採取行動,利用人工智能改變範式的影響,及其對武器系統、指揮控制、數據處理、瞄準、威脅識別和網路的綜合處理能力。同時,五角大樓需要更多地了解和鞏固人工智能在某些領域的整合,並且在任何有關武器、自主性和人工智能系統應用的決策中,將道德參數作為重要因素考慮。中共等競爭對手正在迅速縮小與美國在人工智能領域的差距,這些潛在的對手可能不會傾向於考慮對使用人工智能支援的自主武器進行任何形式的道德限制。

特別是當前,中共拒絕與美國進行軍事領域外交溝通的情況下。在上個月舉行的中美領導人峰會上,中共黨魁曾承諾將與美國就人工智能領域的有關限制條約進行磋商,但至今遲遲沒有下文。這個事實讓肯德爾的擔憂不無道理。

肯德爾明確表示:「我非常重視社會輿論和《武裝衝突法》。政策是圍繞法律制定的,你不是針對機器執行法律,而是針對人執行法律。我們的挑戰不是限制人工智能的用途,而是如何讓人們為人工智能的行為負責。我們要做的是弄清楚如何將《武裝衝突法》適用於人工智能的應用。在我們部署這些功能並投入使用之前,政府部門應該做些什麼?誰要為人工智能的表現負責?」

多年來,五角大樓的條令規定,任何有關使用致命武力的決定都必須由人類做出。但尖端武器開發商強調,高速人工智能數據處理和瞄準可以極大地提高人類決策的速度和效率。

肯德爾說,政府方面最重要的工作是徹底了解這項技術,包括它的細節和它的工作原理。要創造性地幫助業界找到該技術的新應用,並開發評估它的方法,使我們有信心確保當它掌握在我們的軍隊手中時,可以不違反道德地、可靠地使用它。

人們認為,美國不會在仍然保持人工智能領域技術領先的情況下,為了保持相對於對手的技術優勢,而放棄對人工智能發展的道德責任。但是,在沒有達成人類共識並形成有約束力的條約的情況下,這種狀態是脆弱的。如果一方已經破壞了道德底線並給人類安全造成威脅,那麼另一方以降低競爭優勢為代價的道德堅守,就顯得意義不大了。因此,在人工智能領域的軍備競賽是非常危險的。

更大的問題是,至少到目前為止,中共並沒有在人類安全和道德約束的條件下,響應美國的倡議,為形成一個有約束力的國際公約而採取任何行動。在世界範圍,除美國和一些西方國家的自我規範外,在自主人工智能這個極其危險領域的技術應用是不受任何實際約束的。

肯德爾對時間的提及幾乎完全準確,在未來戰爭中時間至關重要。人們只要看一下現代戰爭中,從傳感器到射手或者說從情報、監視和偵察到前線作戰單位做好攻擊準備的過程是怎樣操作的,就能夠理解這一點。

前美國空軍歐洲司令傑弗瑞‧哈里吉安(Jeffrey Harrigian)談到過如何在危機邊緣做出關鍵決策,並利用人工智能帶來的速度優勢進行戰鬥。其過程就是由傳感器提供情報,尋找、驗證並鎖定高價值目標,所有這些過程都可以通過人工智能得到大幅度改進。

鑑於人類無法複製人工智能的分析和處理速度,並且人工智能系統也無法複製人類認知中許多更主觀但有影響力的細微差別,因此,未來可能的最佳前進道路似乎應該是兩者的結合。美國空軍領導層認為,未來應該是人機協作的時代,對協作戰鬥機項目的投資可能將幫助美國實現這一目標。空軍快速開發的第六代戰鬥機和忠誠僚機無人機,也稱為「協作戰鬥機」,代表了有人與無人機組隊的最新前沿。

美國陸軍也在開發類似的系統,陸軍的「融合項目」利用人工智能將傳感器到射手的時間從20分鐘縮短到幾秒鐘。也就是說,從傳感器發現目標到射手瞄準並攻擊目標,整個過程由人工智能系統執行時,一系列不同參數包括偵察、識別、分類、鎖定目標,選擇最佳作戰單元,目標數據傳輸,經過分析優化後提出決策建議,整個過程可以在幾秒或幾毫秒內完成。所有這些程序和分析功能都可以在無需決定是否使用致命武力的情況下進行。本質上說,從發現目標到射手準備好射擊可以由電腦立即完成,同時將使用致命武力的最終決定權留給人類。

人工智能分析的準確性、精度、數量和速度不斷提高,促使五角大樓的一些武器開發商探索「環外」自主應用。這意味著,人工智能武器在用於純粹的防禦性目的時,在沒有人類干預的情況下可能發揮更好的作用並挽救生命。比如,各種來襲的導彈、火炮、火箭炮或無人機,可以在幾秒鐘內被自主人工智能武器發現、識別和摧毀。

其實,關於人工智能的道德失守不在於自主武器是用於進攻還是防禦,只要「環外」自主應用的口子一開,人工智能就將失去控制。人們似乎已經感受到來自內外的各種力量,試圖解開最後一條拴住人工智能的鎖鏈。

撰文:夏洛山(《大紀元時報》記者,曾經歷過十幾年的軍隊生活,主要從事軍隊的教學和一些技術管理工作)
製作:時事軍事製作組
關注《時事軍事-夏洛山》:https://www.ganjing.com/zh-TW/channel/1f6pro4fi585ppZp9ySKkwd0W19f0c

責任編輯:連書華#

相關新聞
【軍事熱點】以軍擴大加沙地面攻勢 數百俘虜受審
【時事軍事】A-50U上前線 俄軍底牌不多了
【時事軍事】A-10之爭尚未結束
【軍事熱點】哈馬斯拿人質威脅 以軍用打擊回應
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論