site Logo; www.epochtimes.com

AlphaGo赢的关键 自我对弈学习错误

Google人工智能系统AlphaGo的主要开发者黄士杰18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)

Google人工智能系统AlphaGo的主要开发者黄士杰18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)

【字号】    
   标签: tags: ,

【大纪元2016年03月18日讯】(中央社)Google旗下DeepMind公司开发的人工智能系统AlphaGo以4比1挑战韩国围棋天才李世石成功,系统主要开发者黄士杰今指出,AlphaGo每天会跟自己下棋,强化分析能力。

来自台湾的黄士杰目前在总部设于伦敦的DeepMind担任资深研究员,也是AlphaGo的主要程式开发者。AlphaGo与李世石进行5场人机对弈,拿下4比1成绩,都是由黄士杰负责在现场替AlphaGo摆棋。

黄士杰今天出席“AlphaGo解密”人机对弈赛后媒体聚会时表示,AlphaGo会变得这么厉害,是因为有子网络跟策略网络,其中策略网络从大约20万到30万的人类棋谱学习,减少搜寻广度;子网络则在搜寻进行到某种程度时,判断现在谁处于优势,可减少搜寻深度。

Google人工智能系统AlphaGo的主要开发者黄士杰18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)
Google人工智能系统AlphaGo的主要开发者黄士杰18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)

Google人工智能系统AlphaGo的主要开发者黄士杰(前排左)18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)
Google人工智能系统AlphaGo的主要开发者黄士杰(前排左)18日出席人机对弈赛后媒体聚会,分享AlphaGo开发公司DeepMind的愿景。(中央社)

黄士杰解释,透过策略网络和子网络,可以将盘面资讯撷取到可以处理的范围,让AlphaGo分析出目前最佳的10到20步棋。

他也透露,AlphaGo每天都自己跟自己下棋,让子网络透过自我对弈成长,从错误中学习,因为AlphaGo不会累,每天“下几百万盘都没问题”,这是子网络这么强大的关键。

黄士杰强调,AlphaGo进步的关键在于深度学习,若少了策略网络与子网络,就会大大降低棋力,这2大网络加入后,搜寻效能大幅提高,不过团队一开始也不确定能否成功,也有很多失败的经验。

对于外界顾虑太聪明的人工智能系统最终可能反噬人类,黄士杰表示,这是很多人讨论的问题,DeepMind与其执行长也非常重视,不过Google有成立伦理委员会,负责评估人工智能造成的影响,他相信人工智能系统是中性的,科技没有好坏,端看人怎么使用。

黄士杰说,AlphaGo的下一步还在讨论中,DeepMind另有团队计划将人工智能系统发展到医疗应用,例如可透过大数据分析病症,但该专案不是由他负责,他并不清楚具体内容。

对于台湾人工智能人才的建议,黄士杰表示,台湾很多教授与研究人员实力不输国外,不过国外研究员的企图心很强,虽然都是离乡背井,但是心理上很积极,跟台湾不太一样。他建议台湾研究人才从小培养英文听说能力,到了有机会出国做研究的时候,就可以很顺利跟各国人才沟通。

2016-03-18 3:58 PM
Copyright© 2000 - 2016   大纪元.