霍金警告机器人暴动:险恶威胁在实验室酝酿

人气 1942

【大纪元2016年07月12日讯】(大纪元记者史轩之编译报导)英国著名科学家史蒂芬·霍金(Stephen Hawking)近日警告,一场险恶的威胁正在实验室中悄然酝酿,人工智能会以比人类更快的速度发展,其最终目标将无法预测,有朝一日或导致人类的终结。

英国《每日邮报》报导,据霍金说,硅谷的技术实验室中正酝酿着一场险恶的威胁。人工智能伪装成有用的数字辅助设备和自动驾驶车辆,正在逐渐站稳脚跟,有朝一日或意味着人类的终结。

霍金警告,机器人会以比人类更快的速度发展,它们的目标将无法预测。在接受《正在拉里·金》(Larry King Now)节目采访时,霍金表达了对人类未来的担忧。他说:“我认为,人工智能领域的进步未必是有益的。”

近日,霍金参加了在西班牙加那利群岛(Canary Islands)举行的“斯塔尔慕斯节”(Starmus Festival),该活动的目的是让公众更加接近科学。

他在受访中说:“一旦机器达到了能够自我发展的关键阶段,我们就无法预测,它们的目标是否会和我们相同。人工智能具有比人类发展更快的潜力。我们需要确保人工智能的设计合乎伦理,并有到位的防范措施。”

这并非霍金第一次警告机器人“暴动”的危险。去年,他也曾警告,随着人工智能学会为自己考虑,并适应于环境,人类正面临不确定的未来。

霍金在伦敦出席一场活动时,告诉BBC:“人工智能的全面发展或意味着人类的终结。”

去年早些时候,霍金也曾表示,成功创造人工智能“将是人类历史上最重大的事件,但不幸的是,这可能是最后一次”。

他认为,个人数字助理如Siri、Google Now和Cortana等的发展,仅仅是一场IT军备竞赛的先兆,未来几十年情况将更严重。

去年,霍金在谈到约翰尼·德普(Johnny Depp)主演的影片《超验骇客》(Transcendence)时说,他认为这部影片不仅仅是一个科幻故事,可能是“人类历史上最严重的错误”。

这部科幻惊悚片对未来人工智能进行了推测,探究了一个电脑超越人类的世界。

去年,电动车公司特斯拉创始人伊隆·马斯克(Elon Musk)也将人工智能比作“召唤恶魔”。他此前就警告,人工智能技术有一天可能比核武器更可怕。

霍金最近接受拉里·金采访时表示,人类最大的威胁其实是自身的弱点。早在2010年,他就在接受拉里·金采访时说,人类两个最大的危险就是贪婪和愚蠢,而在最近这次受访中,他表示一切并没有什么改变。#

责任编辑:李缘

相关新闻
Google并人工智慧商DeepMind
霍金警告:人工智慧恐致人类灭绝
人工智慧恐失控 盖兹也关切
苹果另一创办人:人工智慧超越人类很可怕
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论