本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:深度学习进化编年大事记(2)

时间:2017-07-10 03:10来源:本港台现场报码 作者:本港台直播 点击:
他提出的很多控制理论已经被直接应用在AI和ANN中,比如输入系统的行为,被反馈修正的过程等问题。它们是训练神经网络的连续反向传播模型(也就是错误

他提出的很多控制理论已经被直接应用在AI和ANN中,比如输入系统的行为,被反馈修正的过程等问题。它们是训练神经网络的连续反向传播模型(也就是错误的反向传播)的基础。

1965年:首个有效深度学习网络诞生

推进人:Alexey Ivakhnenko和V.G. Lapa

数学家Ivakhnenko和Lapa等同事在1965年创建了首个有效深度学习网络。这是一个针对监督深度前馈多层感知的通用、可行的学习算法,首次将理论和想法应用到实践上。

Ivakhnenko提出数据分组处理 (Group Method of Data Handling,简称GMDH)的核心技术:这是一种基于计算机数学模型的多参数数据集的归纳算法,能够自动建模并优化参数。这项技术可以被应用到神经网络上。

GMDH官方介绍(英文):

出于这个原因,很多人认为Ivakhnenko是现代深度学习之父。

报码:深度学习进化编年大事记

Alexey Ivakhnenko

他的算法使用深层前馈多层感知器,逐层统计寻找最佳的特征,并传递给系统。

在1971年,Ivakhnenko在当时计算条件的限制下,已经创造出了8层的深度网络,并成功演示了计算机识别系统Alpha的学习过程。

1970-80年:ANN学会识别视觉模式

推进人:Kunihiko Fukushima

日本的福岛邦彦(Kunihiko Fukushima)于1980年提出“新认知机”(Neocognitron)的概念。

新认知机介绍(英文):

这是一种学习如何识别视觉模式的人工神经网络。目前,j2直播,这项技术已经被应用在手写字符和其他模式识别、推荐系统甚至自然语言处理等任务中。

1982年:创造出Hopfield网络

推进人:John Hopfield

1982年,Hopfield创立并推广了这个以他的名字命名的系统。

Hopfield网络是一种循环神经网络,也是一种综合存储系统。即使到了21世纪,它仍然是一种流行的深度学习实现工具。

什么是Hopfiled?这里有一份英文介绍:

报码:深度学习进化编年大事记

1985年:程序会读英语单词了

推进人:Terry Sejnowski

1985年,计算神经科学家Terry Sejnowski利用通过理解人类学习过程创建了NETtalk。

不妨听作者自己讲讲什么是NETtalk:

~rieffelj/classes/2009-10/csc320/readings/Sejnowski-speech-1987.pdf

该程序学习英语单词的方法与人类孩童无异,程序文本转换为语音的质量也随着时间推移进步。

1986年:形状识别和词汇预测水平提高

推进人:David Rumelhart, Geoffrey Hinton, and Ronald J. Williams

1986年,Rumelhart、Hinton和Williams提出误差反向传播算法(Error BackPropagation Algorithm),也就是现在说的BP算法。这项算法至今仍被应用在形状识别,词汇预测等任务中。

论文链接(英文):

https://www.researchgate.net/publication/229091480_Learning_Representations_by_Back_Propagating_Errors

Hinton是公认的“深度学习之父”,他对神经网络的其他贡献包括分散表示、延时神经网络、专家混合系统和亥姆霍兹机等。目前Hinton任职于多伦多大学与Google。

1989年:机器读取手写数字

推进人:Yann LeCun

LeCun是深度学习领域中的另一个“摇滚明星”,他发现了如何在光学字符识别和计算机视觉上使用卷积神经网络 (CNN),因此被称为卷积网络之父。

1989年,他将卷积神经网络和反向传播理论结合起来,创造出能“读懂”手写数字的学习方法。

1989年:Q-learning诞生

推进人:Christopher Watkins

Watkins在1989年发表的博士论文《延迟励学习》中,提出Q-learning的概念,提高了强化学习的实用性和可行性。

论文地址(英文):

~chrisw/new_thesis.pdf

这种新算法表明,可以直接学习最优控制,而不需要对马尔可夫决策过程的转移概率或预期回报进行建模。

1993年:解决了“很深度学习”的任务

推进人:Jürgen Schmidhuber

德国计算机科学家Schmidhuber在1993年解决了一个“很深度学习”的任务,允许循环神经网络中包含1000个层。

这是神经网络处理复杂性问题能力的巨大飞跃。

1995年:支持向量机

推进人:Corinna Cortes和Vladimir Vapnik

支持向量机(SVM)自20世纪60年代问世以来,经过了数十年的改进。

SVM英文介绍:

~chrisw/new_thesis.pdf

目前的标准模型由Corinna Cortes和Vladimir在1993年设计出来,并于1995年提出的。

简单来说,SVM是一种用于识别和映射类似数据的系统,可用于文本分类,手写字符识别和图像分类。

1997年:提出LSTM

推进人:JürgenSchmidhuber和Sepp Hochreiter

20年前,Schmidhuber和Hochreiter提出了一种循环神经网络框架,称之为长短时瞬时记忆(LSTM)。

报码:深度学习进化编年大事记

LSTM经典模型

或许你需要这份资料(英文):

https://colah.github.io/posts/2015-08-Understanding-LSTMs/

LSTM解决了长期依赖性问题,提高了循环神经网络的效率和实用性,也就是说它可以“记住”更长时间的信息。

随着时间的推移,LSTM网络在深度学习圈中得到了广泛应用。最近,谷歌还将其应用在Android智能手机的语音识别软件中。

1998年:提出基于梯度的学习

推进人:Yann LeCun

1998年,Yann LeCun发表了开创性论文《基于梯度学习的文档识别方法》,标志着LeCun在深度学习领域取得了又一次进步。

论文地址:

随机梯度下降算法(又称基于梯度的学习)与反向传播算法相结合,是目前常用的深度学习方法。

2009年:ImageNet创立

推进人:李飞飞

2009年,斯坦福大学人工智能实验室(SAIL)的负责人李飞飞启动了ImageNet,也就如今全球最大的图像识别数据库。

ImageNet官网:

这是一个免费的图像数据库,里面涵盖了超过1400万张图像,为研究人员、教育工作者和学生提供了有标签的图片。

报码:深度学习进化编年大事记

这些图片被打上标签并通过英文词汇数据库Wordnet管理。

2011年:AlexNet问世

推进人:Alex Krizhevsky

AlexNet是2012年ImageNet竞赛冠军获得者Alex Krizhevsky设计的,是卷积神经网络的一种。

AlexNet改进了LeNet5(早些年由Yann LeCun创建)。它最初只有8个层,包含5个卷积层和3个全连接层,并通过修正线性单元来加强速度和dropout。

自AlexNet被发现后,更多更深的神经网络也相继出现,它甚至为后续的CNN甚至是R-CNN等其他网络都定下了基调。

2012年:关于猫的实验

“猫的实验”?

你一定在心里画上了个问号。这听起来很可爱,好像也不重要,但它确实是深度学习向前迈进的一大步。

实验介绍(英文):

实验团队在数千台电脑上使用一个神经网络,将1千万张没有标记的YouTube视频截图上传至系统,并运行。

当这种无监督学习完成时,程序已经学会了如何自己鉴定并识别猫咪,运行正确率约为70%,相对于其他辨认程序,这个结果要好很多。

但是它也并不完美。这个网络可以仅能识别出约15%的表示对象。也就是说,距离真正的智能,它也仅推进了一小步。

2014年:DeepFace诞生

推进人:Facebook团队

Facebook团队在2014年首次公布了DeepFace研究,通过神经网络将人脸识别正确率提升到97.35%。这是一项重大突破,准确率比之前提高了27%。

目前人脸识别已经无处不在,下图为谷歌图片中用到的类似的程序。

报码:深度学习进化编年大事记

2014年:发现生成式对抗网络(GAN)

推进人:Ian Goodfellow

自从两年前蒙特利尔大学的Ian Goodfellow等人提出GAN的概念以来,GAN呈现出井喷式发展。Yann LeCun也非常喜欢GAN——

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容