本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

wzatv:【j2开奖】深度学习综述(2)

时间:2017-04-20 19:40来源:118图库 作者:118开奖 点击:
深度学习的范式转变是 从特征工程到特征表示的转变 。使用深度学习可以开发出概括性强,适应性好,能使用新数据持续进行完善的系统。比建立在确定

  深度学习的范式转变是从特征工程到特征表示的转变。使用深度学习可以开发出概括性强,适应性好,能使用新数据持续进行完善的系统。比建立在确定性业务规则上的预测系统更具动态性。我们不再是去适应一个模型,而是去训练一个模型。

  下面为大家介绍一个深度学习模型—卷积神经网络

  卷积神经网络是模拟动物脑部视觉皮层而建立起来的,其特点是单个神经元只响应某个特定区域的刺激。它的主要结构包括卷积层,池化层,激活层,全连接层等。

  1)卷积层

wzatv:【j2开奖】深度学习综述

  如图所示,卷积层中一个神经元能够关联输入层的一小块被称为接收场的区域,想象一下在卷积层用一个手电照向输入层,并在输入层上进行滑动,它所照亮的区域就是接收场。这把手电同样是由一组数据构成,被称作卷积核。

wzatv:【j2开奖】深度学习综述

  利用一个卷积核对输入层的信息进行过滤,将对应位置的像素值相乘再累加就可以得到一个卷积结果,将卷积核依次划过输入层的所有数据后,就完成了一次对原始数据的加工。用公式可以描述为:

wzatv:【j2开奖】深度学习综述

  2)权值共享

  假设使用一幅1000*1000大小的图像作为网络的输入,此时输入层上有1000000个像素,如果网络的下一层也同样有1000000个神经元,采用全连接的方式时,每个神经元均与输入层的所有像素通过权值连接,此时网络中参数的数量是10^12,可以想到完成这些需要相当庞大的计算量。

  那么,有没有办法减少这些计算量呢?

  想想上面提过的感受野,如果我们让每个神经元只与输入层的10*10个像素连接,此时参数的数量减少到了100*1000000。现在,atv直播,让我们的脑洞再大一点,如果所有的神经元都是用同一组权值会怎么样?当1000000个神经元共用一组权值的时候,参数的数量变成了100个!当然,使用一个卷积核只能提取到原数据一部分的特征,要提取更多的特征,我们把卷积核的数量提高到100个,此时参数的数量是100*100=10000个。可以看到参数已经较之前大大减少了!

  3)池化层

  池化层将输入数据划分为许多小的子区域,只提取每个子区域最大值的方法就称为最大值池化。池化层的意义在于提取出数据中的“显著特征”而忽略“细节特征”,以减少网络中的参数和计算量,并且能够控制过拟合。如图所示即是最大值池化。

wzatv:【j2开奖】深度学习综述

  4)激活层

  激活层使用非线性激活函数:修正线性单元(Rectified Linear Units ReLU)

wzatv:【j2开奖】深度学习综述

  它的作用是使卷积计算结果中小于0的值等于0,其他的值保持不变。在不影响卷积层的接收场的同时增加了决策函数和整个网络的非线性属性。相较于其他激活函数

  Tanh:

wzatv:【j2开奖】深度学习综述

  Sigmoid:

wzatv:【j2开奖】深度学习综述

  ReLU 不需要计算指数,能大幅提高神经网络的训练速度。

  5)全连接层

  全连接层一般放在网络的最后,对前一层得到的高阶特征进行分类。

  原文地址:#deepworks

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容