本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

时间:2017-08-20 23:23来源:118论坛 作者:j2开奖直播 点击:
【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下一代CNN 2017-08-20 13:25 来源:新智元 人工智能/大脑 原标题:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下一代CNN 1 新智元编译 来源:

Hinton碰撞LeCun】CNN有两大缺陷要用capsule做下一代CNN

2017-08-20 13:25 来源:新智元 人工智能 /大脑

原标题:【Hinton碰撞LeCun】CNN有两大缺陷要用capsule做下一代CNN

1新智元编译

来源:Youtube

编译整理:胡祥杰 张易

【新智元导读】 在本次演讲中, Hinton讨论了用“capsule”作为下一代CNN的理由。

他解释了“标准”的卷积神经网络有什么问题?结构的层次太少,只有神经元、神经网络层、整个神经网络。所以,我们需要把每一层的神经元组合起来,形成一个组,atv,并装到“舱”(capsule)中去,这样一来就能完成大量的内部计算,最终输出一个经过压缩的结果。“舱”(capsule)的灵感来自大脑皮层中的微柱体(mini-column)。CNN的代表人物是Yann LeCun,所以这也可以看成是两位大神在深度学习观点上的一次正面交锋。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

2017年8月17日,Hinton在加拿大多伦多菲尔兹研究所开讲,主题是《卷积神经网络有哪些问题》,这是加拿大新成立的“向量研究院”(Vector Institute)2017-2018机器学习的发展和应用课程的一部分。

2017年3月30日,Vector Institute宣布成立,Hinton是这一机构的首席科学顾问。发布会上Vector 方面表示将致力于人工智能的前沿研究,专注在机器学习和深度学习领域的变革性研究。该研究院将与学术机构、孵化器、加速器、初创企业以及大公司展开合作,推动加拿大人工智能的研究及商业化应用。

卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。

卷积神经网络的集大成者是Yann LeCun,现Facebook 人工智能实验室的主管,它被业界誉为“卷积神经网络之父”。在本次演讲中,Hinton也多次提到了LeCun的观点,提到两人在学术上的不同观点。

在本次演讲中, Hinton讨论了用“capsule”作为下一代CNN的理由。

一个卷积神经网络(CNN)或者神经元只有一个输出AND,在处理两个输入向量时做得不好。一个“capsule”是一个多值描述符号,对应输入向量中的一个特征。

Hinton在开场白中说:“在中国,有超过1万名研究生在研究神经网络”,但是这里面有一个误区,他说:“神经网络与大脑的关系不大,它们虽然是受到大脑启发的,但是因为这是我们手动搭建的,大脑是一个完全不同的架构,并且更高效。”

卷积神经网络有什么问题?

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

“标准”的卷积神经网络有什么问题?

结构的层次太少:神经元、神经网络层、整个神经网络

我们需要把每一层的神经元组合起来,形成一个组,并装到“舱”(capsule)中去,这样一来就能完成大量的内部计算,最终输出一个经过压缩的结果。

“舱”(capsule)的灵感来自大脑皮层中的微柱体(mini-column)。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

“舱”表示的是什么?

每一个“舱”表示的是它所检测到的类型的一个多维实体的存在和实例化参数。

比如,在视觉通道上,一个“舱”会检测到物体的具体对象的类型。

一个“舱”会输出两个东西:

1. 被呈现的对象可能的分类;

2. 对象的大概状态,包括位置、朝向、大小、变形、体积和颜色等等。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

“舱”可以完成同步过滤(filtering)

一个典型的“舱”从下一层的“舱”中接收多维的预测向量,并且寻找一个更紧致的预测群(cluster)。

如果找到了一个一个更紧致的预测群(cluster),它会输出:

一个高概率,即某一类型的实体存在在这个区间

群的引力中心,也就是实体的大概状态

这种方法在过滤噪音上做得非常好,因为高维度的一致性的发生并不是偶然。

它比一般的“神经元”表现得要好很多。

当下,LeCun和几乎所有人都在用的对象识别有什么问题?

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

当下用于对象识别的方法:

Convnets(卷积网)使用多层学习到的特征检测器。(这一点很好)

在卷积网中,特征的检测是局部的,每一种类型的检测器被复制到整个空间中。(这一点很好)

在卷积网中,层次越高,特征检测的空间领域变得越大。(这一点很好)

特征提取层与次抽样层交叉存取,将相同类型的相邻特征检测器的输出汇集到一起。(这是问题所在)

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

将复制的特征检测器的输出进行结合的动机

池化在每一层都会给予一个小量的转换变量

最活跃的特征检测器的精确位置会丢失

可能,这也是ok的,如果池化堆叠很多次或者如果特征对其他特征的相对位置进行编的话

池化减少输往特征提取下一层的数量

这将让我们在下一层拥有更多的特征类型(更大的领域)

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

一个卷积网络中拥有什么类型的认知

深度卷积网络中最后一层的激活行为就是一个认知

感知包含了图像中许多物体的信息

但是,物体之间的关系是怎样的?关系的认知并没有经过训练

向一个深度循环神经网络的最初隐藏层的状态上加入上文提到的认知,并且训练RNN来生成字幕(不需要对卷积网络进行预训练)

反对池化的四点理由

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

对于池化(pooling),存在以上 4 点争论:

不合乎我们对形态感知的心理认知

它无法解释为什么把固有坐标系分派给对象后,会有如此明显的效果。

它在解决的是错误的问题

我们想要的是 equivariance,不是 invariance。想要的是 Disentangling,而不是 discarding。

它无法使用基本的线性结构

它不能利用能够完美处理图像中大量variance的自然线性流形。

池化对于做动态routing也很差

我们需要route进入神经网络的输入的每一部分,好知道如何处理它。找到最好的 routing 相当于为图像做parsing。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

关于争论1:

四面体Puzzle:关于坐标系能做什么的演示

用一个平面将一个固体四面体切为两块

把这两块拼回成为一个四面体有多难?

一位MIT教授试了10分钟,然后写下了一个证明,证明这不可能实现

这个小任务为什么这么难?我们需要一个解释。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

反向四面体Puzzle

想象一下,用一个平面切开一个固体四面体,atv,得到一个方形的cross-section;

如果你用一种方式去考虑这个四面体,做到这点并不难;而如果你用标准的方式去考虑这个四面体,就几乎不可能做到。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

一些更多的心理学证据,显示了我们的视觉系统在抓住物体形状时,利用了坐标系。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

关于争论2:Equivariance vs Invariance

卷积神经网络努力在让神经活动对视点上的小变化invariant,方法是通过在一个“池”内合并这些活动

—这个目标是错误的;

—它由这样一个事实驱动:最终的 label 需要 viewpoint-invariant

以equivariance为目标会更好:视点中的变化引发了神经活动中的相应变化

—在认知系统中,是 weights 编了viewpoint-invariant knowledge,而不是神经活动。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

Equivariance

没有sub-sampling,卷积神经网络为discrete translations 给出了“place-coded” equivariance。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

两类 equivariance

如果一个低级别部分移动到了一个非常不同的位置,它会被不同的capsule表征

—这是“place-coded” equivariance。

如果一个部分仅移动了很短的距离,它仍会被同样的capsule表征,但capsule的输出将会变化

—这是“rate-coded” equivariance。

更高级别的 capsules 有更大的domain,所以低级别的place-coded equivariance 转化为了高级别的 rate-coded equivariance。

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

关于争论3:推算形状识别到非常不同的视点

目前的神经网络智慧

—学习用于不同视点的不同模型

—这要求大量训练数据

一个好得多的方法

—同样形状的图像流形在pixel intensities的空间里是高度非线性的

—向流形是全局线性的空间转化(即,图像表征使用了明确的形态坐标)

—这使得大量推算成为可能

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

使用计算机图像使用的全局线性流形在视点上泛化

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

在部分层次中的两层(使用线性流形的coincidence filtering)

wzatv:【Hinton碰撞LeCun】CNN有两大缺陷,要用capsule做下

关于争论4:我们需要 route 图像中的信息,好让神经网络可以理解

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容