我们在学习数学的过程中,一般情况下是通过方程,求结果;但在深度学习的领域,我们是知道结果,求方程,从而应用在更广阔的领域。 那举个例子:你爸打你一巴掌,你脸鼓一个包;你爸不断地打你巴掌,你不断地鼓包。那么在这个过程当中,巴掌就是输入,随着时间的推移,越早的巴掌贡献越小(因为鼓的那个包已经快消掉了),某个时间点上包的大小就是输出…… 这个时候可以看到,如果打巴掌频率越来越高,那么你鼓包的大小,就应该是巴掌函数乘以鼓包衰减函数,然后从开始到这个时间点的和。由于频率无限高,那么就是积分了。 这,就是卷积! 积木四:池化( pooling ) 池化,一般是在卷积操作后边,为什么要进行池化操作呢? 通过上图可以看到,在卷积核作用下的卷积操作后,我们依然得到较多的结果,考虑到图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计。 模型 softmax 回归模型 多层感知器模型 卷积神经网络模型 以上三种模型就是本次课程的重中之重,在了解完上方的四块重要的“积木”后,相信大家会在课程观看方面不会存在太大问题了。 本文转自:百度开发者中心。 (责任编辑:本港台直播) |