Ian:是的,一个真正能证明我们已经走了多远的事情发生在2014年,j2直播,其中一个重大的突破是,j2直播,AI 能够生成一个句子来总结照片中的内容。在2016年,我们看到了处理一句话的不同方法,让计算机可以根据句子描述的内容,来生成一张照片。从几个字到一个非常逼真的、包含数千或数百万像素的图像比从图像到文字更复杂。 2016年,另一个令人兴奋的事是使用生成模型进行药物发现。该模型能真正地描绘出新的分子,这些分子的药效都是非常明确的。此前的模型只能描绘图像而不是分子。 Ariel:随后就是谷歌的翻译程序——谷歌基于神经网络的机器翻译。你们能聊聊这个吗?为什么这是一个大的突破? Ian:说它是大的突破有两个原因。首先,谷歌基于神经网络的机器翻译比此前各种机器翻译技术都要好很多,它摒弃掉了许多人为设计的元素,只使用一个神经网络来弄清楚要做什么。 关于谷歌基于神经网络的机器翻译,另一件非常令人兴奋的事情是,机器翻译模型已经发展了我们所谓的“国际语”。过去,如果你想从日语翻译为韩语,你必须找到很多已经从日语翻译成韩语的句子,也就是语料,然后你可以训练一个机器学习模型,来复制此前的翻译过程。但现在,如果你已经知道如何从英语翻译成韩语,你就知道如何从英语翻译成日语。中间有国际语。也就是,你先从英语翻译成国际语,然后翻译成日语;把英语翻译成国际语,再翻译成韩语。你也可以把日语翻译成国际语或把韩语翻译成国际语,然后把国际语翻译成日语或韩语,你不再需要在某两种特定的语言中寻找一一对应的句子语料。 Ariel:用于语言的技术如何应用于其他地方?2017年及以后,你对这一发展有何预期? Richard:我认为,我们从这个方法中学到的是,深度学习系统能够创造出关于现实世界的非常丰富的模型,能真实地表达我们可以想到的东西,这是一个非常令人兴奋的里程碑。能够将国际语与关于真实世界的更多结构化信息相结合是各个团队正在努力的方向,在未来几年,这会是一个大的开放领域。 Ian:在OpenAI,我们最大的项目——Universe,能让强化学习智能体玩许多不同的计算机游戏,这些智能体与游戏的交互方式与人类一模一样:通过键盘或者鼠标完成。相同的强化学习智能体基本上可以完成所有人类能进行的计算机交互行为。让一个智能体能做到所有这些不同的事,我们能真正地锻炼自己的能力,创造通用的人工智能。像谷歌的“国际语”翻译这样的项目,让我们有充分的理由去相信这是可以实现的。 Ariel:今年发生的事,还有什么你们觉得特别重要的? Richard:单次学习 (One-shot learning),指的是,在面对一个新的任务时,你只能看到一点点数据,可能只有一个数据点,然后你可以推断出这是什么类型,或者这一功能大体是怎么样的。因此,基于非常少的数据,能够从一般的背景知识训练系统,这将是非常令人兴奋的。 Ian:让我兴奋的是一个新的领域——机器学习安全。其中攻击者可以欺骗机器学习系统,让其采取错误的行动。对象识别系统就是很容易欺骗的。例如,我们可以给它一个看起来很像熊猫的图像,但是它识别出来是校车,反之亦然。在现实中,骗过机器学习系统是可能的。有一篇名为 Accessorize to a Crime的文章,说的是,通过佩戴不寻常的彩色眼镜,可以骗过面部识别系统。我和 GoogleBrain 的研究员一起在 Physical World 写了一篇名为“对抗实例”(Adversarial Examples)的文章,展示了我们可以给图像增加噪点,通过相机观看时,我们可以控制对象识别系统如何对这些图像进行响应。 Ariel:你认为2016年有什么重要的事件,或者2017年有什么期待吗? Richard:是的,我认为2017年会更加专注于无监督学习。世界上大多数事物是没有人为标注的,一间房子的周围不会贴着便签,上面写着它们是什么。能够以更加无监督的方式处理[世界]将带来大量的新应用。 (责任编辑:本港台直播) |