site logo: www.epochtimes.com

AI之父辛頓:人工智能對人類造成六大危害

2023年6月28日,被譽為「人工智能教父」的傑弗里·辛頓在多倫多舉行的科技會議上發表講話。(Chris Young/加通社)
人氣: 3513
【字號】    
   標籤: tags: ,

【大紀元2023年06月30日訊】(大紀元記者王蘭多倫多報導)人工智能(AI)先驅傑弗里·辛頓(Geoffrey Hinton)表示,AI技術的進步正在將世界推入「一個巨大不確定的時期」。隨著技術變得更加智能,這位被稱為「AI教父」的專家強調了人工智能可能對人類造成的六種危害。

據CTV報導,週三(6月28日)在多倫多舉行的北美科技大會「碰撞」年會上,辛頓解釋說,使用AI的一些危險源於它可能會產生控制他人的慾望。

辛頓說:「我們必須認真對待這種可能性,如果它們變得比我們更聰明,這似乎很有可能,並且它們有自己的目標,它們很可能會制定目標進行控制,如果它們這樣做,我們就有麻煩了。」

這位認知心理學家和計算機科學家今年早些時候從谷歌辭職,以便公開地談論AI的潛在危險。 隨著AI技術通過ChatGPT等工具變得更容易為公眾所接受,辛頓幾個月來一直在表達他的擔憂。

辛頓成為此次多倫多科技大會的中心,他向數百名與會者發表了講話,座位很快就滿了,很多人坐在地板上。來自世界各地的四萬多人齊聚多倫多參加今年的 「碰撞」 技術大會,會中幾乎每個演講都涉及AI的廣泛影響。

辛頓表示,以下是AI可能對人類造成的六大主要危害:

1. 偏見和歧視

使用帶有偏見的數據庫,人工智能技術和ChatGPT等大型語言模型能夠產生同樣有偏見的答案。

例如,一位推特用戶曾發布帖子顯示,聊天機器人編寫的代碼表示,只有白人或亞洲男性才能成為優秀的科學家,這一回答是根據其數據庫得出的。

2. 戰鬥機器人

世界各地武裝部隊正生產戰鬥機器人等致命自主武器。「國防部將建造它們,我不知道如何阻止他們這樣做。」辛頓說。

上個月,簽署《特定常規武器公約》的國家召開會議,討論致命自主武器系統。 然而,經過10年的審議,關於使用這些武器系統的國際法律和法規尚不存在。

儘管如此,此類技術會繼續發展,而且正在進行。

3. 人類失業

大型語言模型的開發將有助於提高員工的生產力,在某些情況下,可能會取代生成文本的人的工作。

其他專家也表達了對AI在就業市場取代人類勞動力的潛力的擔憂。 但多倫多大學羅特曼管理學院勞資關係和人力資源管理名譽教授阿尼爾·維爾馬(Anil Verma)表示,隨著時間的推移,一些工作崗位將會消失,正如歷次技術浪潮中的情況一樣。但這種情況發生的速度是我們能夠調整和適應的。

而辛頓表示,他不確定科技是否會創造比它消除的工作崗位更多的就業機會。

4. 消除不同的聲音

在數據的環境中,用戶會接觸到與自己相似的信念或想法。 結果,這些觀點得到了強化,而其它觀點則沒有得到考慮。

辛頓說,可能有一些程序使用AI算法,經過人類情感訓練,讓用戶接觸某種類型的內容。 他舉了一個例子,大公司向用戶提供的內容鼓勵他們點擊。

5. 對人類的生存構成風險

辛頓還對AI可能對人類生存構成的威脅表示擔憂。 他說,如果科技變得比人類聰明得多,並且能夠操縱人類,它可能會取代人類,人類有一種強烈的、內在的控制慾,而這也是AI能夠發展的特質。

人類可能無法克服這種控制慾望,也無法監管可能懷有惡意的AI。 這可能會導致人類的滅絕或消失。 雖然有些人可能認為這是一個笑話或危言聳聽的例子,但辛頓不同意。

「這不僅僅是科幻小說。」他說,「這是我們需要考慮的真正風險,我們需要提前弄清楚如何應對。」

6. 假新聞

辛頓表示,AI還具有傳播假新聞的能力。 因此,他說,標記虛假信息以防止錯誤信息非常重要。

各國政府已將故意使用或保留假幣定為刑事犯罪,應該對AI生成的故意誤導的內容採取類似的措施。 不過,辛頓表示他不確定這種方法是否可行。

如何讓AI行善?

辛頓表示,他不知道如何讓AI更有可能成為一種行善的力量,而不是作惡的力量。 但在這項技術變得異常智能之前,他敦促開發人員努力了解AI可能會如何出錯或試圖控制人類。

他表示,開發AI技術的公司還應該投入更多資源來阻止AI接管,而不僅僅是讓技術變得更好。

「我們真的應該減輕AI帶來的所有不良副作用。」他說。

責任編輯:嚴楓#

評論