科技新聞

人工智能發展是繁榮人類或毀滅人類?

【大紀元2015年02月02日訊】(大紀元記者莫琳綜合報導)語音辯識,影像分析,無人駕駛,自動翻譯,當人們受惠於這些人工智能(AI)帶來的新科技時,一些憂心人工智能發展的科學家們呼籲更多更高級別的單位控管人工智能的發展,換言之,人類需有更高的智慧主導人工智能以繁榮人類。當有一天人類失去自我駕駛汽車、飛行器、致命武器和隱私權的控制權時,可能帶給人類災難或毀滅。

積極倡導新科技的微軟共同創辦人之一、百萬慈善家比爾‧蓋茲在論壇社群Reddit(什麼都可以問)線上問答中寫道:「未來10年,電腦在視覺、語言辯識、翻譯技術都會大幅改善」,「一旦能解決機器人的辯識和移動能力:如機器人會挑選水果,在醫院移動病人,機器人就能大面積的被人類使用。」

蓋茲進一步介紹微軟正在開發「個人代理」(Personal Agent)軟體,這可以幫助人類管理記憶、提醒和需要專注的事。以後人們不用再去找各種應用軟體,這套系統就可以整合你所有的設備,當你的個人秘書了。

賦予機器人這些能力的正是最近熱門討論的人工智慧(artificial intelligent, 簡稱AI,或稱超級智慧,super intelligent)。

線上用戶反問蓋茲:「超級智慧對人類的生存威脅有多大?」

這個問題是最近許多著名的未來學家在熱烈討輪的議題。蓋茲也將自己列在為人工智能發展的隱憂發聲之列。他說:「我也是站在關心超級智能的一群。首先必須清楚認知,機器將取代我們大部分的工作而不是智能。如果人類管理得當,人工智能的發展應該是正面的。但以目前的情形來看,未來數十年,人工智能的發展已經快到會令人擔心。我同意馬斯克和其它人所言,我不知道為何有些人不擔憂這個問題。」

製造電動車的特斯拉老闆馬斯克(Elon Musk)去年十月在麻省理工學院(MIT)航空航天部門百年紀念研討會上形容人工智能是「召喚惡魔」。他說:「我們應該很謹慎地處理人工智能。如果要我猜人類最大的生存威脅是什麼,我想那就是AI。」

英國發明家Clive Sinclair也曾說他認為人工智能將毀滅人類,他告訴BBC:「一旦你開始製造抵抗人類和超越人類的智能機器,人類就很難生存,這是無可避免的。」

生命未來研究所為人工智能把關

愈來愈多的科學家認為應該有一些國家級或世界級的機構來規範和監督人工智能的發展,以確保人類不會做傻事(自我毀滅)。

來自MIT、IBM、哈佛和劍橋的科技知名人士如斯蒂芬‧霍金,馬斯克等最近從生命未來研究所(Future of Life Institute ,FLI)簽署一封公開信警告人工智能的危險性。公開信中指出,若沒有導入正確的安全措施,快速成長的人工智能最終將成為人類的災難。

生命未來研究所的成立旨在確保人工智能讓人類「受益」的相關研究。所謂「受益」,指的就是當人工智能的智慧高過人類之時,它們仍會聽命於人類而非發動革命。

生命未來研究所聯合創始人Anthony Aguirre曾說:「重工業和政府投資已經讓人工智能從小眾的學術研究演變成了可能改變世界的技術,但至今為止並沒多少人願意投入資金,以確保其最終能為人類帶來積極的改變。」

生命未來研究所的專家們擔心人工智能不斷強化,未來將導向反烏托邦社會。他們認為人工智能的中心問題就是「生存危機」:如果科技往壞的一方發展,有發生人類滅絕的危機。

「生存危機」並不誇張,好萊塢的科幻影片如去年推出的驚悚片《超驗駭客》(或譯做全面進化,Transcendence),就是在詮釋人工智能發展的危機。該片在電影院上映的同時,斯蒂芬‧霍金直接了當地說:「人工智能發展到最後就是人類滅絕」

他告訴BBC:「一旦人工智能發展起來,它會自己啟動,以一種不斷增長的速度重新自我設計。人類無法與之競爭,只能被取代。簡而言之,如果電腦太聰明,對人類而言就是毀滅,沒戲唱了。」

人類必須有更高的智慧主導人工智能

「生存危機」的相反是「生存受益」,支持者說人工智能將帶給人類真正的烏托邦,人腦潛能打開,人類有能力開發新的線索,新的能源,解決人類問題的新方案如消除疾病和貧窮。但專家們認為「生存受益」應該是人工智能幫助人類繁榮,而不是帶來毀滅。

這正是公開信中,霍金和馬斯克所要強調的,人工智能的發展是要確保「受益贏過危機」,簡而言之,保衛好人工智能這塊園地繁榮人類,確保人工智能系統必須是做我們要它去做的事。

人類必須有更高的智慧主導人工智能,這在現今人工智能的發展已經是迫在眉睫了。 

責任編輯:華子明