2017/0113/192478.html">斯坦福CS231n 2017/0124/196754.html">Spring 2017开放全部课程视频(附大纲) 2017-08-13 10:58 来源:机器之心 视频 /计算机 原标题:斯坦福CS231n Spring 2017开放全部课程视频(附大纲) 参与:机器之心编辑部 CS231n近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。而最近刚刚结课的CS231n Spring 2017 仍由李飞飞主讲,并邀请了Goodfellow等人对其中部分章节详细介绍。本课程从计算机视觉的基础概念开始,在奠定了基本分类模型、神经网络和优化算法的基础后,详细介绍了CNN、RNN、GAN、RL等深度模型在计算机视觉上的应用。前天,斯坦福开放了该课程的全部视频,并且还有配套英文字幕。因此,CS231n 2017 春季课程包括 PPT 和视频在内的所有教学资料都已开放。机器之心将为各位读者介绍该课程,并提供相应的资源,Bilibili视频地址由微博知名博主爱可可老师提供。 课件地址: 课程视频地址:https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv Bilibili视频地址:#page=1 以下为该课程的内容大纲 Lecture 1:计算机视觉的概述、历史背景以及课程计划 Lecture 2:图像分类——包括数据驱动(data-driven)方法,atv,K 近邻方法(KNN)和线性分类(linear classification)方法 Lecture 3:损失函数和优化(loss Function and optimization) 这一讲主要分为三部分内容: 1. 继续上一讲的内容介绍了线性分类方法; 2. 介绍了高阶表征及图像的特点; 3. 优化及随机梯度下降(SGD)。 Lecture 4:神经网络 包括经典的反向传播算法(back-propagation);多层感知机结构(multilayer perceptrons);以及神经元视角。 Lecture 5:卷积神经网络(CNN) 主要分为三部分内容: 1. 卷积神经网络的历史背景及发展; 2. 卷积与池化(convolution and pooling); 3. ConvNets 的效果 Lecture 6:如何训练神经网络 I 介绍了各类激活函数,数据预处理,权重初始化,分批归一化(batch normalization)以及超参优化(hyper-parameter optimization)。 Lecture 7:如何训练神经网络 II 介绍了优化方法(optimization)、模型集成(model ensembles)、正则化(regularization)、数据扩张(data-augmentation)和迁移学习(transfer learning)。 Lecture 8: 深度学习软件基础 1. 详细对比了 CPU 和 GPU; 2. TensorFlow、Theano、PyTorch、Torch、Caffe 实例的具体说明; 3. 各类框架的对比及用途分析。 Lecture 9:卷积神经网络架构(CNN Architectures) 该课程从 LeNet-5 开始到 AlexNet、VGG、GoogLeNet、ResNet 等由理论到实例详细描述了卷积神经网络的架构与原理。 Lecture 10:循环神经网络(Recurrent Neural Networks) 该课程先详细介绍了 RNN、LSTM 和 GRU 的架构与原理,再从语言建模、图像描述、视觉问答系统等对这些模型进行进一步的描述。 Lecture 11:检测与分割(Detection and Segmentation) (责任编辑:本港台直播) |