site logo: www.epochtimes.com

人工智能发展是繁荣人类或毁灭人类?

人气: 449
【字号】    
   标签: tags: ,

【大纪元2015年02月02日讯】(大纪元记者莫琳综合报导)语音辩识,影像分析,无人驾驶,自动翻译,当人们受惠于这些人工智能(AI)带来的新科技时,一些忧心人工智能发展的科学家们呼吁更多更高级别的单位控管人工智能的发展,换言之,人类需有更高的智慧主导人工智能以繁荣人类。当有一天人类失去自我驾驶汽车、飞行器、致命武器和隐私权的控制权时,可能带给人类灾难或毁灭。

积极倡导新科技的微软共同创办人之一、百万慈善家比尔‧盖兹在论坛社群Reddit(什么都可以问)线上问答中写道:“未来10年,电脑在视觉、语言辩识、翻译技术都会大幅改善”,“一旦能解决机器人的辩识和移动能力:如机器人会挑选水果,在医院移动病人,机器人就能大面积的被人类使用。”

盖兹进一步介绍微软正在开发“个人代理”(Personal Agent)软体,这可以帮助人类管理记忆、提醒和需要专注的事。以后人们不用再去找各种应用软体,这套系统就可以整合你所有的设备,当你的个人秘书了。

赋予机器人这些能力的正是最近热门讨论的人工智慧(artificial intelligent, 简称AI,或称超级智慧,super intelligent)。

线上用户反问盖兹:“超级智慧对人类的生存威胁有多大?”

这个问题是最近许多著名的未来学家在热烈讨轮的议题。盖兹也将自己列在为人工智能发展的隐忧发声之列。他说:“我也是站在关心超级智能的一群。首先必须清楚认知,机器将取代我们大部分的工作而不是智能。如果人类管理得当,人工智能的发展应该是正面的。但以目前的情形来看,未来数十年,人工智能的发展已经快到会令人担心。我同意马斯克和其它人所言,我不知道为何有些人不担忧这个问题。”

制造电动车的特斯拉老板马斯克(Elon Musk)去年十月在麻省理工学院(MIT)航空航天部门百年纪念研讨会上形容人工智能是“召唤恶魔”。他说:“我们应该很谨慎地处理人工智能。如果要我猜人类最大的生存威胁是什么,我想那就是AI。”

英国发明家Clive Sinclair也曾说他认为人工智能将毁灭人类,他告诉BBC:“一旦你开始制造抵抗人类和超越人类的智能机器,人类就很难生存,这是无可避免的。”

生命未来研究所为人工智能把关

愈来愈多的科学家认为应该有一些国家级或世界级的机构来规范和监督人工智能的发展,以确保人类不会做傻事(自我毁灭)。

来自MIT、IBM、哈佛和剑桥的科技知名人士如斯蒂芬‧霍金,马斯克等最近从生命未来研究所(Future of Life Institute ,FLI)签署一封公开信警告人工智能的危险性。公开信中指出,若没有导入正确的安全措施,快速成长的人工智能最终将成为人类的灾难。

生命未来研究所的成立旨在确保人工智能让人类“受益”的相关研究。所谓“受益”,指的就是当人工智能的智慧高过人类之时,它们仍会听命于人类而非发动革命。

生命未来研究所联合创始人Anthony Aguirre曾说:“重工业和政府投资已经让人工智能从小众的学术研究演变成了可能改变世界的技术,但至今为止并没多少人愿意投入资金,以确保其最终能为人类带来积极的改变。”

生命未来研究所的专家们担心人工智能不断强化,未来将导向反乌托邦社会。他们认为人工智能的中心问题就是“生存危机”:如果科技往坏的一方发展,有发生人类灭绝的危机。

“生存危机”并不夸张,好莱坞的科幻影片如去年推出的惊悚片《超验骇客》(或译做全面进化,Transcendence),就是在诠释人工智能发展的危机。该片在电影院上映的同时,斯蒂芬‧霍金直接了当地说:“人工智能发展到最后就是人类灭绝”

他告诉BBC:“一旦人工智能发展起来,它会自己启动,以一种不断增长的速度重新自我设计。人类无法与之竞争,只能被取代。简而言之,如果电脑太聪明,对人类而言就是毁灭,没戏唱了。”

人类必须有更高的智慧主导人工智能

“生存危机”的相反是“生存受益”,支持者说人工智能将带给人类真正的乌托邦,人脑潜能打开,人类有能力开发新的线索,新的能源,解决人类问题的新方案如消除疾病和贫穷。但专家们认为“生存受益”应该是人工智能帮助人类繁荣,而不是带来毁灭。

这正是公开信中,霍金和马斯克所要强调的,人工智能的发展是要确保“受益赢过危机”,简而言之,保卫好人工智能这块园地繁荣人类,确保人工智能系统必须是做我们要它去做的事。

人类必须有更高的智慧主导人工智能,这在现今人工智能的发展已经是迫在眉睫了。 

责任编辑:华子明

评论
2015-02-02 11:30 PM
Copyright© 2000 - 2016   大纪元.