site logo: www.epochtimes.com

美智庫警告:AI恐造成人類滅絕風險

美國AI安全風險顧問公司Gladstone AI公布最新報告表示,最先進的AI系統在最壞的情況下,可能「對人類構成滅絕等級的威脅」,警告美國政府避免災難的時間已經不多。(Olivier Morin/AFP)
人氣: 859
【字號】    
   標籤: tags: , , , , , ,

【大紀元2024年03月14日訊】(大紀元記者吳旻洲編譯報導)人工智能(AI)技術迅速發展,是否威脅人類生存越來越受到關注。美國國務院委託美國智庫針對二百多位AI公司高層、國安人員與專家進行調查,專家們擔憂,最先進的AI系統在最壞的情況下,可能「對人類構成滅絕等級的威脅」,警告美國政府避免災難的時間已經不多。

美國國務院委託AI安全風險顧問公司Gladstone AI進行調查,在一年多的時間,採訪了二百多名人員,包括AI公司高層、網路安全研究人員、大規模殺傷性武器專家,以及國家安全官員,Gladstone AI於本週發布這份報告。

報告提到,雖然所有AI實驗室都在爭取10年內建立通用人工智能(AGI,一種具有類似人類智能和自學能力的軟體),但這項革命性技術,將對民主治理和全球安全產生深遠影響。

報告說,已有越來越多證據,包括在世界頂級AI會議上發表的實證研究和分析顯示,超過一定的能力閾值,AI可能會變得不可控。專家們最擔心的是,最先進的AI系統可以武器化,可能會造成無法逆轉的損害。

其次,AI實驗室內部也擔憂說,一旦AI發展到某種程度後,開發人員會對他們自己開發的系統「失去控制」,可能會對全球安全造成「毀滅性後果」。

AGI若失控 恐釀成毀滅性災難

面對AGI技術快速發展,監管能力卻遠跟不上開發的速度,實驗室高階主管和工作人員已公開承認存在這些危險,但因為競爭壓力的原故,促使實驗室仍然以「犧牲安全為代價」,對人工智能能力進行投資。

報告警告,這會增加最先進AI系統可能被「竊取」和「武器化」,並用來對抗美國的可能性,如武器化機器人、無人機等等,以及武器化的生物和材料科學,存有挑起AI「軍備競賽」、衝突以及「大規模毀滅性武器規模的致命事故」的風險。

其它災難還包括,由AI驅動的「大規模」虛假資訊活動,這些活動會破壞社會穩定,並削弱對機構的信任。AGI被視為「失控導致災難性風險的主要驅動因素」

目前AGI仍處於理論性階段,目標是建立類似人類智能和自學能力的軟體,而且不需要編程,就能在任務之間學習,並適應新的任務和環境。包括OpenAI、Google DeepMind、Anthropic和英偉達(Nvidia)等公司都曾公開表示,AGI可能會在2028年實現。

不能再放任 政府迫切需要進行干預

「美國政府顯然迫切需要進行干預」,作者在報告中呼籲,應採取重大新措施來應對這項威脅,包括實施「緊急」監管保障措施、限制可用於訓練人工智能模型的電腦能力。

報告建議,應該禁止對超過一定閾值的高級AI系統進行訓練、儘可能緩和所有AI開發人員之間的競爭動態,並降低晶片行業製造更快硬體的速度。一旦尖端模型的安全性證據得到充分證明,AI機構就可以提高門檻。若在現有模型中發現危險功能,政府則可以降低安全閾值。

不過,該提案可能會面臨政治困難,目前美國政府的AI政策是設定運算閾值,高於該閾值則適用額外的監控和監管要求,但不會限制並指其違法。美國政府智庫戰略與國際研究中心(CSIS)稱,美國政府極不可能採納這一建議。

42%商界人士也憂心忡忡

已有越來越多的專家警告,AI的快速發展可能會威脅到人類的生存。

被業界譽為「AI教父」的辛頓(Geoffrey Hinton)去年4月辭去了Google的工作,他當時受訪時坦言,AI進步速度遠超預期,有10%的可能性,會在未來30年內導致人類滅絕。

去年6月,辛頓與其他數十位人工智能產業領袖、學者和其他人士共同簽署一項聲明,呼籲減輕人工智能滅絕人類的風險,應該成為「全球優先事項」。

商界領袖雖然已在AI領域投資了數十億美元,但也同樣為此感到擔憂。去年,在美國耶魯大學執行長高峰會(Yale CEO Summit)上接受調查的執行長中,有42%的人表示,人工智能有可能在5到10年後毀滅人類。

Gladstone AI也採訪了包括ChatGPT所有者OpenAI、Google DeepMind、Facebook母公司Meta和Anthropic的技術和領導團隊等人,並警告雖然AI已經是一項經濟變革技術,繼續吸引投資者和公眾,但也存在真正的危險。

報告提到,一名知名人工智能實驗室員工表示,如果將下一代人工智能模型以開放獲取的方式發布,那將「非常糟糕」,這些模型可能會被用於干預選舉、操縱選民等領域,可能會對民主造成破壞。◇

責任編輯:昌英#

評論