一场万众期待的人机对弈再次引发了人们对于人工智能的狂热讨论,不过AI本身好像“冷静”得多,与往常无异,本周又有许多技术研发和应用落地的好消息。人脸识别技术接入寻人平台之后,走失人员成功回家的温情故事已经发生了不止一次。 对弈 | AlphaGo战胜了柯洁和他的队友们 5 月 23 日,中国围棋协会和浙江省体育局携手谷歌联合主办的「中国乌镇·围棋峰会」正式开幕,直到 5 月 27 日,柯洁与 AlphaGo 的三番棋人机大战以及人机团队赛、配对赛陆续展开。 围棋人机大战2.0版的第一场,执黑的柯洁以约四分之一子的微弱劣势告负。第二场柯洁执白,中盘投子认输。第三场,经过209手的博弈,主动要求执白的柯洁再次负于AlphaGo。 配对赛:连笑八段联手 AlphaGo 执白战胜古力九段与 AlphaGo 的组合,赢得了史上首次人机配对赛;团队赛:五位世界冠军组成的团队在与 AlphaGo 的对决中收官阶段认输。 ━━━━━ 据彭博社 Mark Gurman 报道,从知情人士处了解到,苹果正在开发一种专用处理器,可以用于处理人工智能相关的任务,比如在产品中实现面部和语音识别。报道称该芯片在苹果内部被称作 “苹果神经引擎”(Apple Neural Engine)。苹果计划与标准处理器和图形芯片一同使用这款处理器,以此为其产品增加更先进的人工智能属性并分担 AI 处理任务的负载以提高电池续航时间。 这种芯片将来可能帮助苹果支持无人驾驶汽车和增强现实软件,同时也能帮助提高苹果语音助理Siri的能力。据称,苹果计划将这款芯片整合到其所有产品中,包括iPhone和iPad。 ━━━━━ 升级| 百度Deep Voice 2:支持多说话人的文本转语音 今年2月,百度硅谷人工智能实验室发布了 一个完全用深度神经网络构建的人类语音合成系统:Deep Voice 1。三个月后,该系统升级为Deep Voice 2,将系统从 20 小时的语音(speech)、单一声音(voice)扩展到数百小时的语音与数百种声音。 Deep Voice 2 能学习数百种声音并完美地模仿它们。与传统系统不同,Deep Voice 2 不需要来自单一说话者数十小时的音频,j2直播,其只需要每个说话者不到半个小时的数据就能学会数百种独特的声音,同时还能实现非常高的质量。 Deep Voice 2 通过寻找不同声音之间的共享特质(shared qualities)而学习生成语音。具体而言,每一个语音对应着单个向量,该向量大约有 50 个元素且总结了如何生成能模拟目标说话者的声音。与以前所有的 TTS 系统不同,Deep Voice 2 可以从头开始学习这些特质,atv,无需任何标记语音特征的引导。
━━━━━ 开源| OpenAI发布DQN实现 近日,OpenAI通过博客宣布开源OpenAI Baselines: 我们宣布开源OpenAI Baselines,这是我们内部对发表论文的复现,结果能与论文所公布的相媲美。今天要发布的,包括DQN和它的三个变体。接下来的几个月里,我们将继续发布这些算法。 复现强化学习的结果并非易事:模型的性能有很多噪声、算法的活动件可能包含微小的bug、很多论文也没有写明复现所需的所有技巧。要正确地实现一个强化学习模型,往往需要修复很多不起眼的bug。 我们计划发布一些效果良好的实现,并写明完成这些实现的过程,借此来确保明显的RL进步,不是与现有算法的错误版本或未经微调的版本进行比较得来的。 ━━━━━
第二次 | 百度使用人脸识别技术 帮七旬老人找到走失的儿子 (责任编辑:本港台直播) |