一场“人机大战”,将人工智能的话题推到公众面前,李世石连输两阵,更让人对科技的发展瞠目结舌,甚至联想到《星球大战》是否真的会发生、人类会否被机器统治等问题。此时,我们不妨用科学的视角,理性而客观地看待人工智能的现状和未来。中新网记者特别采访了长期从事人工智能和智能科学研究、来自澳门赌场计算技术研究所的史忠植研究员,解读“阿尔法围棋”和人工智能的问题。
“人机大战”为什么选择围棋? 171位数“吓死你”
“人机大战”的兴起,最早是1997年,IBM超级计算机“深蓝(Deep Blue)” 击败了国际象棋大师加里-卡斯帕罗夫。科学界认为,围棋“人机大战”可以看成是人工智能发展具有标志性的进展。曾经“深蓝”的胜利鼓舞了人工智能研究的士气,吸引了投资者对人工智能的兴趣。
至于为什么选择围棋,史忠植教授解读称:“围棋之所以很难被人工智能攻破,战胜人类高手,就是其可能的组合数异常庞大。至于多么异常,2016年1月,普林斯顿的研究人员给出了最新研究结果:对于一个19x19的围棋棋盘而言,一共有361个位置,而每个位置可以单独放置黑棋、白棋或者留空,理论上所有的可能组合是3361种。但根据围棋规则,不是所有位置都可合法落子,例如在围棋术语中没有气的位置就不能落子。”
“那么,排除掉这些不合法的棋局后总共还剩多少种呢?普林斯顿的研究人员给出的19x19格围棋的精确合法棋局数:‘208168199381979984699478633
3448627702865224538845305484256394568209274196127380153785
2564845169851964390725991601562812854608988831442712971531
9317557736620397247064840935。’”
“171位数!”这个数字比我们地球所有的沙粒数量还要多!比人类已知宇宙的所有星球数量还要多!对比来讲,谷歌学习的近万盘人类棋局是5位数,谷歌自行对战的3000万盘是8位数,而围棋所有可能的棋局盘数是171位数。如果规避还有可能的重复变化,把大头去掉,那也是70位数的棋局变化。
“人机大战”说明人工智能达到了何种水平?
2013年10月29日,史忠植在在创新驱动发展大数据时代的人工智能高峰论坛上,提出了智能科学(人工智能)发展的“路线图”,并在著作《心智计算》一书中有详细的阐述。
其中提到,2020年,人工智能将实现初级类脑计算,即Elementary Brain Computing。在这个阶段,我们将实现的目标是计算机可以完成精准的听、说、读、写;到2035年,我们将进入高级类脑计算阶段,即Advanced Brain like Computing,那时,计算机不但具备“智商”,还将拥有“情商”;到2050年,智能科学(人工智能)有望发展出神经形态计算机,实现超脑计算,即Super-brain Computing。到那个时候,计算机的高性能与人的高智能完美结合。
史忠植认为:“按照这个标准,这次围棋“人机大战”中,若谷歌围棋AI程序‘AlphaGo’最终战胜世界冠军李世石,将说明人工智能达到了初级类脑计算的水平。”
“AlphaGo”如何工作?
史忠植介绍,“阿尔法围棋”下棋过程中主要通过四步完成工作,分别是:快速判断、深度模仿、自学成才和全局分析。
其中,快速判断,指用于快速的观察围棋的盘面,类似于人观察盘面获得的第一反应。深度模仿,指“AlphaGo”学习近万盘人类历史高手的棋局来进行模仿学习,用得到的经验进行判断。这个深度模仿能够根据盘面产生类似人类棋手的走法。
自学成长,指“AlphaGo”不断与“自己”对战,下了3000万盘棋局,总结出经验作为棋局中的评估依据。全局分析,指利用第三步学习结果对整个盘面的赢面判断,实现从全局分析整个棋局。
现实中有人工智能吗?中国能造出类似的人工智能吗?
人工智能经过60年的风风雨雨,取得了长足的进展,目前已在各行各业得到应用。史忠植的《人工智能》一书中,将其归纳为8个方面:专家系统、数据挖掘、自然语言处理、智能机器人、模式识别、分布式人工智能、互联网智能和博弈。
看到了“阿尔法围棋”,人们自然联想到中国的同类科技,目前能否达到甚至、超越这一水平。史忠植介绍说:“在国家自然科学基金、973、863和广大企业等的支持下, 在广大科研人员和应用单位的努力下,我国人工智能几乎与世界同步发展,特别在机器翻译、语音识别、人脸识别、农业专家系统、数据挖掘、深水机器人等方面是非常有特色的,也有能力创造出战胜世界顶级棋手的人工智能系统。”
人工智能会否有朝一日能战胜所有人类棋手?如果可以,大概需要多久?
李世石接连落败,柯洁甚至成为拯救人类围棋智慧“尊严”的最后稻草。史忠植认为,经过学习和积累,在未来3-5年人工智能系统能够战胜所有的人类棋手。
为何这台人工智能如此厉害,不妨深究其内涵:“AlphaGo”的核心是两种不同的深度神经网络:“策略网络”(policy network)和“值网络”(value network)。它们的任务在于合作“挑选”出那些比较有前途的棋步,抛弃明显的差棋,从而将计算量控制在计算机可以完成的范围里。
其中,“值网络”负责减少搜索的深度——AI会一边推算一边判断局面,局面明显劣势的时候,就直接抛弃某些路线,不用一条道算到黑;而“策略网络”负责减少搜索的宽度——面对眼前的一盘棋,有些棋步是明显不该走的,比如不该随便送子给别人吃。
然后,将这些信息放入一个概率函数,AI就不用给每一步以同样的重视程度,而可以重点分析那些有戏的棋招。“AlphaGo”利用这两个工具来分析局面,判断每种下子策略的优劣,就像人类棋手会判断当前局面以及推断未来的局面一样。这样,“AlphaGo”分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。
另据媒体报道,阿尔法围棋采用机器学习方法,主要是深度卷积神经网络和强化学习。研发团队收集了围棋职业高手大量的棋谱,并用这些棋谱对“深度卷积神经网络”进行了3000万步的训练,使其判断职业选手下一步走法的正确率达到了57%,之前的纪录是44%。