因此,在人脑研究并反向学习AlphaGo的同时,AlphaGo又在这一年里把他们翻来覆去都“烹”了一遍……” 年轻人对AlphaGo的脑洞你不懂 对于第二个问题的反馈,我们其实有点惊讶。因为受访者的很多想法都非常新颖、毒舌,而且有的与人工智能研发者很多有趣的点子不谋而合。譬如: 人类早就输了,我们就想知道狗与狗之间什么时候来场对决?这样更有意思一点。(嗯,Google已经在用几个AI一起玩游戏的方法进行实验了) 我们要看狗们一起和人玩狼人杀!让狗当狼人!看看能不能把人类碾压!或者N只狗自己玩狼人杀……(提醒一下,一只狗的价格很昂贵好吗) 这已经不稀奇了好吗?什么时候人型版的AlphaGo能打乒乓球比赛战胜张继科和马龙?(等到这只狗出现,估计他俩就老了) 什么时候能买到这么聪明的机器人?中国什么时候能做个破解版? 想问……请问柯洁是单身吗? 此外,他们的问题不但更接地气儿,也让我们隐约看到了人工智能技术的训练及落地究竟会是一个什么样的走向。 我们总结了一下,这些人大概对这只狗基本有三个方面的疑惑: 如果被打败了,真的很想知道AlphaGo是怎么胜的,我们到底差在哪里?它肯定也会有弱点吧? 既然人类败局已定,那么像阿尔法狗这种人工智能机器人,距离其全面超越人类,究竟还有多远? 赢了又怎样?用机器代替人脑究竟有什么意义?它究竟能帮到我们什么?其商业价值到底在哪里?难道只是证明了人脑可以被AI碾压?
围棋峰会将于5月23日在乌镇举行 第一个疑惑:挑苹果的故事 对于第一个疑惑,或许应该由AlphaGo背后的这支顶级人工智能开发团队DeepMind来解答。只是很可惜,他们并没有出席这场发布会(但你会在5月比赛现场看到他们)。 与一年前的解释大致相同,DeepMind团队通过录像告诉我们,新版AlphaGo的核心仍然是蒙特卡罗树搜索(MCTS)。 如果直接给你解释“蒙特卡罗树搜索就是根据某一个节点R去随机寻找另一个节点T”,这听起来会有点费力。其实早在去年,《人民日报》就给了这个看起来高大上的算法一个非常通俗易懂的解释: “假如篮子里有1000个苹果,让你每次闭着眼睛找一个最大的,可以不限制挑选次数。于是你闭眼随机拿了一个,然后再随机拿了第二个与第一个比较,留下最大的;然后再随机拿一个,再比较留下最大的……这样循环往复,拿的次数最多,挑出最大苹果的可能性就越大。但是,除非你把这1000个苹果都挑一遍,否则无法100%肯定自己拿的是否是最大的那只。” 换句话说,这个算法就是由n多个随机结果去逼近所需要的精确结果。 接下来的东西就比较好理解了。 根据介绍,AlphaGo采用深度学习技术训练形成的两个网络之一——“策略网络”能够对所有落子位置进行概率分布,随后把生成的概率信息反馈到蒙特卡罗搜索树中,通过上面的“苹果比较过程”,逐渐生成一个最符合人类棋手思维的可行下法。 换言之,策略网络的功能是“想人类所想”。 而另一个“估值网络”,则负责估算胜率。然后再将这些估算出的信息投入到蒙特卡罗搜索中,继续通过“苹果比较过程”,推算出胜率最高的一些算法。 所以这个网络的功能是“寻找打赢人类的走法”。 想想看,面对一个既能抢先读懂你的棋路,又能根据你的棋路迅速生成一套更优对抗策略的对手,你的赢的概率会有多少? 但是我们刚才也说了,不到1000个苹果,你无法完全确认手里的苹果是否是最大的那个。也就是说,AlphaGo给出的只能是棋局更高的胜率,而没有100%的胜算。 这也就从某种程度上解释了,李世石为何能从AlphaGo那里扳回一局。 (责任编辑:本港台直播) |