把这个两个结合起来,就是AlphaGo的树搜索。通过策略网络选出几个可能的路径,然后对这些路径进行评估,最后把结果提交给树顶。这个过程重复几百上千次,最后AlphaGo得出赢棋概率最高的一步。
新策略/价值网络如何炼成 那么新的新策略/价值网络,到底强在哪里? AlphaGo Master这次成了自己的老师,用席尔瓦的话说,这位围棋AI是自学成才。它从自我对弈的棋局里进行学习,积累了最好的训练数据。“上一代AlphaGo成为下一代的老师”席尔瓦形容道。 通过AlphaGo的自我博弈,不断吸取经验、提高棋力,这一次AlphaGo用自我对弈训练出的策略网络,可以做到不需要更多运算,直接给出下一步的决策。 这种改变明显减少了对计算力的需求。
另一个价值网络,也是基于AlphaGo的自我对弈进行训练,通过对弈后的复盘,价值网络能够学到哪一步是关键所在。通过高质量的自我对弈,训练价值网络预测哪一步更重要。 席尔瓦表示:“在任何一步,AlphaGo都会准确预测如何能赢”。
这个过程不断反复迭代,最终打造了一个更强大的AlphaGo。自我博弈,带来数据质量的提高,从而推动了AlphaGo的快速提升。
如此前一样,DeepMind证实也会公布这一代AlphaGo的相关论文。更多的细节,我们可以期待Deepm稍后的发布。 攻克智能,解决问题 AlphaGo来自DeepMind。2010年DeepMind在伦敦成立,目前有500名员工,其中一半是科学家。哈萨比斯说,DeepMind要把人工智能科学家、数据和计算力结合在一起,推动人工智能的发展。
△哈萨比斯 这家公司的愿景:第一是攻克智能。第二是用智能解决所有问题。 换句话说,DeepMind的目标是构建通用人工智能。所谓通用人工智能,首先AI具备学习的能力,其次能举一反三,执行各种不同的任务。如何抵达这个目标?哈萨比斯说有两个工具:深度学习、强化学习。 AlphaGo就是深度学习和强化学习的结合。AlphaGo也是DeepMind迈向通用人工智能目标的一步,尽管现在它更多的专注于围棋领域。 哈萨比斯表示,j2直播,希望通过AlphaGo的研究,让机器获得直觉和创造力。 这里所谓的直觉,是通过体验直接获得的初步感知。无法表达出来,可通过行为确认其存在和正误。 而创造力,是通过组合已有知识产生新颖或独特想法的能力。AlphaGo显然已展示出了这些能力,尽管领域有限。 “未来能够看到人机结合的巨大力量,人类智慧将被人工智能放大。”哈萨比斯说。目前AlphaGo的技术已经被用于数据中心,能节约15%的电能;另外也能被用于材料、医疗、智能手机和教育等领域。 尽管已经连战连捷,AlphaGo仍然有继续探索的空间。哈萨比斯和DeepMind仍然想在围棋领域继续追问:我们离最优解还有多远?怎样才是完美棋局? 当今社会已有越来越多的数据产生,然而人类往往无法通过这些数据了解全局的变化,在这种情况下人工智能有可能推动科研继续进步。 一切正如国际象棋棋王卡斯帕罗夫所说: “深蓝已经结束,AlphaGo才刚开始。” 专访全文 △哈萨比斯、席尔瓦接受量子位等专访 提问:在Master已经对包括柯洁在内的人类棋手60连胜之后,举办这场比赛的意义在哪里? (责任编辑:本港台直播) |