本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【j2开奖】【重磅】腾讯“绝艺”9连胜横扫日韩AI,距世界冠军一步之遥(2)

时间:2017-03-19 18:40来源:118图库 作者:本港台直播 点击:
18日的预选赛中,绝艺首先轻取了来自日本的两个围棋AI。其中第二场的对手naiver1的“填子大法”令观者大跌眼镜,完全像一个初学者进行对弈,被绝艺杀

  18日的预选赛中,绝艺首先轻取了来自日本的两个围棋AI。其中第二场的对手naiver1的“填子大法”令观者大跌眼镜,完全像一个初学者进行对弈,被绝艺杀得全局没有一块活棋。有网友调侃道:这对局者的棋力差异,比我和李世石的差距还大。好戏从第三场开始,法国里尔第三大学(Université Lille 3)的计算机科学教授Rémi Coulom独自研制的疯石(第1、2、6、8届UEC杯冠军)给绝艺制造了一些麻烦,且体现出了布局上的巧思,但行至中盘,大公司和个人开发在计算力上的差距就显现了出来。疯石因为计算力薄弱,一杀就死,最终中盘认输。不过从及时认输这一点上,也能看出疯石相较于前面的对手更加智能。

  在又连胜了三个日本AI棋手后,绝艺终于迎来了“宿命”中的对手——DeepZenGo。由日本东京大学研发、以超越AlphaGo为目标的DeepZenGo,在AlphaGo升级版——Master碾压世界顶级职业高手、豪取60连胜时,一直也在围棋网络平台上对战9D高手,不停训练,不停涨棋,9天时间对弈了300多盘,胜率达到90%。

  得益于腾讯强大的计算资源,绝艺迅速崛起

【j2开奖】【重磅】腾讯“绝艺”9连胜横扫日韩AI,距世界冠军一步之遥

  DeepZenGo的作者之一尾岛阳儿曾经说过,Zen的蒙特卡洛树搜索(MCTS)以及一些其他的部分是优于AlphaGo的,因为AlphaGo两位主要的作者的程序Erica和RLGO在计算机围棋比赛上都比不过Zen(日本)和Crazystone(法国)。

  但他也表示,因为用大量棋谱训练深度卷积神经网络(DCNN)需要异常强大的计算机硬件,而他们手上并没有这种条件。AlphaGo有1920个CPU、280个GPU,而DeepZenGo据说是44个CPU,4个GPU。在CPU上差了43倍,atv,在GPU上差了70倍。在计算力与搜索深度上完全是天壤之别。

  在和绝艺的比赛过程中,DeepZenGo果然体现出硬件配置不足导致的计算能力薄弱的问题,在左下角首先出现误算,大块棋筋被执白的绝艺无条件杀掉,随后在右上角遭遇重创,最终中盘不敌绝艺。

  纵观和绝艺比赛的各Al,普遍输于计算力薄弱,且大多都有填子、送吃的情况。而反观绝艺,它的背后是腾讯强大的资源和技术实力,从诞生之初就有“国产AlphaGo”的称号。有知乎网友曾评论:当前的绝艺应该相当于对战李世石的V18版,而其他公开见到的大多只有赢樊麾的V13的水平,DeepZenGo强一些,但从跟赵志勋的对战来看肯定不如V18。

  同时,本届UEC杯对硬件配置也没有强制性要求,虽然要求参赛者必须报告机器功耗,但特别说明1000W以上的,可以通过特别许可。我们目前还不太清楚此次参赛的绝艺的硬件配置,但从之前野狐网一段时间内绝艺多个版本轮番测试的情况来看,腾讯在这方面无疑是花费了心思的。

  DeepZenGo此前被认为相比于AlphaGo,最大的劣势之一是它是单机版的。本次比赛对参赛AI是单机作战还是联网没有限制。主办方提供服务器和以太网接口,参赛者将自己的机器接入选定接口进行对局,IP由DHCP自动分配。也就是说虽然不能远程接入服务器参赛,但只要机器到达现场,通过现场单机转接服务器是不禁止的。不知道这次DeepZenGo是否还是单机作战,但这对于绝艺来说无疑是利好消息。

  AlphaGo转型,计算机下围棋意义何在?

  棋类AI最早基本都是基于蒙特卡洛树搜索(Monte Calro Tree Search, MCTS)来构建的,诸如Crazay Stone、DeepZenGo这样的围棋AI也不例外。研发者“将游戏中所有的可能性表示成一棵树,树的第N层就代表着游戏中的第N步。树的node数是随着树的深度成指数增长的,不考虑剪枝,每个node都需要进行估值。”

  新智元在去年AlphaG与李世石的人机大战时曾介绍过,围棋属于所有完全信息(perfect information)博弈。所有完全信息(perfect information)博弈都有一个最优值函数(optimalvalue function),它决定了在所有参与博弈的玩家都做出了完美表现的情况下,博弈的结果是什么:无论你在棋盘的哪个位置落子(或者说是状态s)。这些博弈游戏是可能通过在含有大约个可能行动序列(其中b是博弈的宽度,也就是在每个位置能够移动的步数,开奖,而d是博弈的深度)的搜索树(search tree)上反复计算最优值函数来解决的。在象棋和围棋之类的大型博弈游戏中,穷尽地搜索是不合适的,但是有效搜索空间是可以通过2种普遍规则得到降低的。首先,搜索的深度可能通过位置估计(position evaluation)来降低:在状态s时截取搜索树,将随后的子树部分(subtree)替换为根据状态s来预测结果的近似的值函数。这种方法使程序在象棋、跳棋、翻转棋(Othello)的游戏中表现超越了人类,但人们认为它无法应用于围棋,因为围棋极其复杂。其次,搜索的宽度可能通过从策略概率——一种在位置s时表示出所有可能的行动的概率分布——中抽样行动来降低。比如,蒙特卡洛法通过从策略概率p中为博弈游戏双方抽样长序列的行动来让搜索达到深度的极限、没有任何分支树。将这些模拟结果进行平均,能够提供有效的位置估计,让程序在西洋双陆棋(backgammon)和拼字棋(Scrabble)的游戏中展现出超越人类的表现,在围棋方面也能达到低级业余爱好者水平。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容