馬斯克聯手115專家 籲全球禁止殺人機器人

人氣 2057

【大紀元2017年08月22日訊】(大紀元記者夏雨綜合報導)週日(8月20日),特斯拉首席執行官馬斯克(Elon Musk)和其他領先人工智能專家共116人,聯合呼籲聯合國在全球禁止使用具有殺傷性的機器人,包括無人機、坦克和機關槍等。

福克斯援引英國《衛報》的報導說,馬斯克和谷歌旗下的DeepMind共同創辦人蘇雷曼(Mustafa Suleyman)等116名科技名人簽署一封公開信,信中寫道:「一旦這個潘多拉的盒子被打開,這將很難關閉。」

這封信於週一在澳大利亞墨爾本舉行的國際人工智能聯合會議上發布。

致命自主武器「在道德上是錯誤的」

聯合國最近投票決定開始正式討論這類武器,包括無人機、坦克和自動化機槍。在此之前,人工智能和機器人公司的創始人們已經向聯合國發出公開信,要求防止目前正在進行的殺人機器人軍備競賽。

創始人們在信中警告,這種軍備競賽有可能在火藥和核武器之後引發「第三次戰爭革命」。

信中寫道:「一旦發展,致命的自主武器將使武裝衝突規模比以往任何時候都要大,而且發展速度之快超出人類能理解的程度。這些恐怖武器可能成為恐怖分子對無辜人民使用的武器,以及以惡意的方式行事的武器。」

專家們表示,自主武器(autonomous weapons)「在道德上是錯誤的」。報導說,專家希望將殺人機器人添加到聯合國禁用武器清單中,其中包括化學武器和故意致盲的激光武器。

自主武器會對無辜人民造成重大傷害

悉尼新南威爾士大學人造智能教授沃爾什(Toby Walsh)表示,幾乎所有技術都有好壞兩面性,人造智能也是如此;它可以幫助解決當今社會面臨的許多緊迫問題,然而,同樣的技術也可以用於自主武器工業化戰爭。

加拿大機器人公司Clearpath Robotics的創始人Ryan Gariepy 表示:「與其它仍然在科幻領域的人工智能產品的潛在表現不同,自主武器系統現在正處於發展尖端,並且具有非常真實的潛力,會對無辜的人民造成重大傷害以及造成全球不穩定。」

馬斯克過去曾經談到過人造智能的固有風險。7月15日在羅德島州州長協會夏季會議上的講話中,馬斯克說,在損失無可挽回之前,政府需要主動規範人工智能。他將人工智能描述為「現代文明面臨的最大風險」。

他表示,直到人們看到機器人走上街頭殺人才警惕,就晚了;目前他們不知道如何反應,因為它(人工智能)似乎如此飄渺。

他在技術網站Recode的評論中說:「人工智能是一個罕見情況,我認為我們需要積極主動的監管而不是被動(行事)。因為當我們在人工智能法規中被動作出反應時,已經為時已晚。」

根據聯合國的網站資料顯示,聯合國負責關注這些武器類型的團體原定週一會面討論,但已遭取消,將延後至11月再行討論。

各國研發自主武器

雖然殺人機器人目前看似只存在於科幻小說中,如終結者的T-800或ROBOCOP機器戰警ED-209,但在現實中,致命的自主武器已經在使用。三星的SGR-A1哨兵據說在技術上有能力自主射擊,它擁有監視、語音識別和跟蹤能力,且可用機槍或榴彈發射器射擊。

由BAE系統公司開發的英國塔拉尼斯無人機(Taranis drone)旨在能夠連續攜帶空對空和空對地彈藥,並具有充分的自主權。

俄羅斯、美國和其它國家正在開發可以遠程控制或自主操作的機器人坦克,這些項目包括俄羅斯Uran-9無人戰鬥地面車輛的自主版本以及改裝成自主系統的常規坦克。#

責任編輯:李緣

相關新聞
新創風險高 硅谷種子投資退 分析指兩原因
人工智能泡沫太大 「失控」狀態再引關注
硅谷企業屈從中共內幕曝光
富士康再投數十億 在密歇根研發自駕車
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論