微信说科研&微言谈教育 教育专栏 > 微言谈教育专题 > 热点聚焦 > 正文

AlphaGo为何能够战胜顶级围棋手李世乭?

来源:中国教育信息化网
作者:李志民

  3月9日至3月15日,全球关注的“人机大战”,由顶级围棋手李世乭与谷歌计算机围棋程序“阿法狗”(AlphaGo)进行对弈,结局是李世乭以1∶4输了。

  这个“阿法狗”搅起的波澜似乎远胜过IBM的“深蓝”等前辈。因为它的难度完全不同,国际象棋的下法可以穷尽,围棋的下法几乎不可以穷尽。比赛后,舆论各说纷纭,其实,无论谁输谁赢,对于大众来说,这一场比赛最大的收获莫过于完成了人工智能的大众科学普及工作,从而带来人们对于自动驾驶和人工智能的广泛兴趣,并且逐渐地相信,机器独特的判断力。

  AlphaGo为何能够赢比赛呢?

  2013年,谷歌以4亿英镑收购了DeepMind这个仅有50多人的小公司,结合谷歌的深度学习技术,其计算能力飞速提升,研发出了阿法狗。阿法狗的主要工作原理是“深度学习”。深度学习是什么?深度学习的概念源于人工神经网络的研究, 深度学习是指机器通过深度神经网络,模拟人脑的机制来学习、判断、决策,已经被广泛应用于许多领域。

  谷歌的研究人员在AlphaGo的程序中搭建了两套模仿人类思维方式的深度神经网络。第一种叫“策略网络”它让程序学习人类棋手的下法,挑选出比较有胜率的棋谱,抛弃明显的差棋,使总运算量维持在可以控制的范围内。另一种叫价值网络,主要用于减少搜索的深度,它不会一下子搜索一盘棋所有的步数,而是一边下一边进行未来十几步的计算,这样也就大量减少计算量。

  AIphaGo根据深度学习的原理练习下围棋,具体做法是先给阿法狗输入3000万步人类围棋大师的下棋走法,让阿法狗自我对弈3000万局,积累胜负经验,制定策略网络,给出落子选择;阿法狗在自我对弈的训练中形成全局观,对局面随时作出评估,构成价值网络,修正原落子选择,最终给出最优落子位子。

  人可以疲劳,可能走神,机器不会疲劳,不会走神。(2016-03-21)


访谈视频
相关文章
访谈嘉宾
分享