【大紀元2023年05月02日訊】(大紀元記者陳霆綜合報導)人工智能(AI)先驅辛頓(Geoffrey Hinton)週一(5月1日)證實,他上週離開了谷歌,讓他得以自由談論對這項技術的擔憂。
「我常這樣安慰自己:如果我不做,其他人也會做」,辛頓接受《紐約時報》專訪時說,「但實在很難看出如何防止壞人利用它(AI)作惡。」
《紐約時報》率先報導了辛頓離職的決定(鏈接)。他對該報說,他有些後悔一生所做的工作。
這位現年75歲的學者素有「AI教父」之稱,他在神經網絡、深度學習方面的開創性工作,塑造了當今AI系統。
辛頓為谷歌服務了10年,協助這家科技巨頭開發AI系統,但他最近對這項技術感到憂心。在週一的一條推文中,辛頓說,他離開谷歌是為了能自由談論AI的風險,並不是想批評谷歌。
「我離開是為了能談論人工智能的危險,不需考慮這對谷歌的影響」,辛頓在推文中說,「谷歌的行為非常負責任。」
谷歌首席科學家傑夫·迪恩(Jeff Dean)說,辛頓「在AI方面取得了基礎性的突破」,並感謝他「對谷歌十年來的貢獻」。
「我們仍致力於以負責任的方式對待人工智能」,迪恩一份聲明中說,「我們正不斷學習,了解新出現的風險,同時也在大膽創新。」
在辛頓決定退出谷歌之際,有越來越多的國會議員、業內人士和技術專家,對AI驅動的新一代聊天機器人提出警告。他們擔憂,生成性AI可能成為散播錯誤信息的工具,並嚴重衝擊就業市場。
目前,OpenAI、微軟和谷歌處於這一趨勢的最前沿,但IBM、亞馬遜、百度和騰訊也在開發類似的技術。
今年3月,許多科技界知名人士簽署了一封公開信,呼籲高級AI開發應至少暫停6個月,以制定、實施一套開發與設計先進AI的共享安全協議,否則可能對「社會和全人類構成深刻風險」。(了解更多)
這封信是由馬斯克(Elon Musk)支持的非營利組織「生命未來研究所」(Future of Life Institute)所發表,其公布時間就在OpenAI公開了GPT-4之後的兩週。在早期測試和公司演示中,GPT-4被用來起草訴訟,通過標準化考試,並通過手繪草圖建立一個工作網站。
幾天後,擁有40年歷史的學術團體「人工智能促進協會」(AAAI)的19位現任、前任領導人也發布了公開信(鏈接),警告AI的風險。
在接受《紐時》採訪時,辛頓表示,他擔心AI可能造成許多人失業,並使互聯網上充斥著虛假的照片、視頻和文字,人們將「無法辨別真假」。
他還指出,AI驚人的進步速度,遠超出了他與其他專家的預期。隨著科技公司改進他們的AI系統,它們會變得越來越危險。
「過去只有一些人相信,這種東西實際上可變得比人更聰明」,辛頓說,「但大多數人認為這是不可能的。我也曾認為這是不可能的。我認為,那是30到50年甚至更長時間以後的事。很明顯,我不再這麼認為了。」
許多其他專家表示,這種威脅只是假設性的。但辛頓認為,谷歌、微軟以及其他公司之間的競爭,將升級為一場全球競賽,若沒有國際監管,這場競爭不會停止。
在離開谷歌之前,辛頓就曾公開談論過AI的潛在危害和好處。
在2021年,辛頓曾在孟買印度理工學院的畢業演講中說,AI將促進醫療保健,但同時也可能有助發展致命的自主武器。
辛頓並不是第一個對AI提出異議的谷歌員工。去年6月,該公司解僱了一名認定谷歌聊天機器人具備人格的工程師。
這位名叫布萊克·勒莫因(Blake Lemoine)工程師聲稱,代號為LaMDA的AI系統已獲得意識,谷歌則稱他違反了就業和數據安全政策。◇
責任編輯:葉紫微#