本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【j2开奖】【Github 6481 颗星】牛津大学 DeepMind 2017 深度 NLP 课程(4)

时间:2017-03-13 01:39来源:668论坛 作者:118开奖 点击:
语言建模是在许多NLP应用的重要任务。本讲介绍了语言建模,包括传统的基于n-gram的方法和更现代的神经方法。特别介绍了流行的递归神经网络(RNN)语言

  语言建模是在许多NLP应用的重要任务。本讲介绍了语言建模,包括传统的基于n-gram的方法和更现代的神经方法。特别介绍了流行的递归神经网络(RNN)语言模型和其基本的训练及评估算法。

  4,RNN和语言建模 Phil Blunsom

  本讲继续上一节的内容,讨论了实施RNN语言模型中的一些问题。 描述了消失(vanishing)和爆炸梯度(exploding gradient)问题,并讨论了诸如LSTM这样的架构解决方案。

  Week 4

  5. 文本分类 Karl Moritz Hermann (DeepMind研究员)

  本讲讨论文本分类,从诸如朴素贝叶斯这样的基本分类器开始,讲到RNN和卷积网络。

  6. RNNs and GPUs Jeremy Appleyard (英伟达研究员)

  本讲介绍了执行深度学习算法中CPU的替代方案——图形处理单元(GPU) ,讨论了GPU的优缺点以及内存带宽和计算是如何影响RNN的。

  Week 5

  7&8. Sequence Transduction Chris Dyer (CMU副教授、DeepMind研究员)

  7. 序列转换 Chris Dyer (CMU副教授、DeepMind研究员)

  本讲中,我们扩展了语言建模的概念。通过在表征输入上调节RNN语言模型,我们可以生成上下文相关语言。这个非常通用的想法可以应用于序列转换任务,例如翻译和总结,或将图像转换为描述其内容的说明性文字。

  8. 序列转换 Chris Dyer (CMU副教授、DeepMind研究员)

  本讲介绍了深度神经网络中最重要和最有影响力的机制之一:注意力机制。 注意力使得递归网络增加了对输入的特定部分进行调节的能力,这是在诸如机器翻译和图像说明任务中实现高性能的关键。

  Week 6

  9. Speech Andrew Senior (DeepMind研究员)

  自动语音识别(ASR)是将语言的原始音频信号转换成文本的任务。 本讲涵盖了ASR模型的历史,从高斯混合,到经过注意力强化的RNN,到基本的语音学,以及经常使用的各种输入和输出的表示。

  10. Speech Andrew Senior (DeepMind研究员)

  本讲介绍将书面语言转换为口语的算法(文本到语音)。TTS是与ASR相反的过程,但是在应用的模型中存在一些重要区别。我们回顾了传统的TTS模型,然后引出更多的近期使用的神经方法,如DeepMind的WaveNet模型。

  Week 7

  11. 问答系统Karl Moritz Hermann

  12. 记忆 Ed Grefenstette

  Week 8

  13. 语言结构 Chris Dyer

  14. 结论 Phil Blunsom

  学术背景要求

  最后说明一下参与的学术背景。当然,这些也不是绝对的。因为,你在什么情况下,都能一边实践一边学习。

  数学线性代数

  微积分

  概率

  机器学习机器学习模型评测(训练/验证/测试分裂,交叉验证等)

  过度拟合、泛化、正则化

  优化(目标函数随机梯度下降)

  线性回归及分类、神经网络(常规非线性、反向传播等)

  编程掌握或有能力迅速掌握神经网络学习框架相关知识(如Torch、TensorFlow、Theano、DyNet)

  还等什么,访问 Github:https://github.com/oxford-cs-deepnlp-2017/lectures

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容