本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:南京大学周志华等提出DFOP算法:无分布一次通过

时间:2017-06-11 04:20来源:668论坛 作者:开奖直播现场 点击:
参与:吴攀、黄小天 在线机器学习应用中,数据总是会随时间增多,怎么开发能有效应对这种动态情况的算法是一个值得关注的热门研究主题。近日,南京大学研究者赵鹏和周志华在

参与:吴攀、黄小天

在线机器学习应用中,atv,数据总是会随时间增多,怎么开发能有效应对这种动态情况的算法是一个值得关注的热门研究主题。近日,南京大学研究者赵鹏和周志华在 arXiv 发布了一篇题为《Distribution-Free One-Pass Learning》的论文,提出了一种有望解决这一问题的算法 DFOP。机器之心对该论文进行了摘要介绍,更多详情请参阅原论文。

论文:无分布一次通过学习(Distribution-Free One-Pass Learning)

论文地址:https://arxiv.org/abs/1706.02471

报码:南京大学周志华等提出DFOP算法:无分布一次通过

在许多大规模机器学习应用中,数据会随着时间而累积,因此,一个合适的模型应当能以一种在线的范式而进行更新。此外,因为在构建模型时,总的数据量是未知的,因此我们希望使用独立于数据量的存储来对每个数据项进行仅一次的扫描。另外值得注意的是在数据累积过程中,其基础分布可能会发生改变。为了应对这样的任务,在这篇论文中,我们提出了 DFOP——无分布一次通过学习方法(distribution-free one-pass learning approach)。这种方法在数据累积过程中分布发生变化时效果良好,且无需有关该变化的先验知识。每个数据项一旦被扫描后就可以被抛弃了。此外,理论保证(theoretical guarantee)也表明在一个轻微假设下的估计误差(estimate error)会下降,直到高概率地收敛。我们通过实验验证了 DFOP 在回归和分类上的表现。

3 预备工作

这一部分简要介绍了静态场景中的流回归模型(streaming regression model)。

在一个流场景(streaming scenario)中,我们用 {x(t), y(t)} 表示一个有标签的数据集,其中 x(t) 是第 t 个实例的特征,y(t) 是一个实值输出。此外,我们假设了一个如下的线性模型:

其中 {ε(t)} 是噪声序列,{w(t)} 是我们要估计的。

当在一个静态场景中时,序列 {w(t)} 是一个常数向量,用 w0 表示。然后,可以采用最小二乘法来最小化其残差平方和,其有一个闭式解(closed-form solution)。但是,当添加一个在线的/一次通过的约束(其要求原始项在被处理之后就被抛弃)时,它就无法工作。递归最小二乘法(RLS/recursive least square)和随机梯度下降(SGD)是以在线的范式解决这一问题的两种经典方法。

当在一个非静态环境中时,j2直播,尤其是基础分布改变时,传统的方法是不合适的,因为我们永远不期望经典的 i.i.d 假设还能继续发挥效用。在下一节,我们提出了基于指数遗忘机制(exponential forgetting mechanism)来处理这种场景,而无需对数据流的演化进行明确的建模;我们也给出了理论支持和实证论证。

在下面,||·|| 表示在

空间中的 L2 范数。同时,对于有界实值序列 {x(t)},x* 表示该序列的上界,即

4 无分布一次通过学习

因为序列 {w(t)} 在动态环境中会随时间改变,所以使用前面介绍的方法来估计当前(即时间 t 时)概念。相反,我们引入了一个贴现因子(discounted factors){λ(t)} 序列来对旧数据的损失降权,如下:

其中 λ(i) ∈ (0, 1) 是一个贴现因子,可以平滑地给更旧的数据加上更少的权重。如果我们将所有 λ(i) 都简化成一个常量 λ ∈ (0, 1),那么就可以更直观地理解,则此时该函数就为:

数量

被称为遗忘因子(forgetting factor)[Hay08]。遗忘因子的值实际上是过去条件的稳定性(stability of past condition)和未来演化敏感度(sensitivity of future evolution)之间的权衡。

需要指出,这个基于指数遗忘因子的遗忘机制也可以被看作是滑动窗口方法(sliding window approach)的某种程度的连续类比。带有足够小权重的旧数据或多或少可被看作是从窗口中排除的。更多关于窗口大小和遗忘因子的关系的讨论可见于第 5.4 节。

4.1 算法

对于 (3) 中提出的优化问题,显然,通过取该函数的导数,我们可以直接得到其最优的闭式解:

但是,上述表达式是一个离线的估计(off-line estimat),亦即 t 之前的所有数据项都需要。我们没有重复求解 (4),而是基于新进入数据项的信息为之前的估计增加了一个校正项,从而对其基础概念(underlying concept)进行估计。使用遗忘因子递归最小二乘法 [Hay08],我们可以以一次通过的范式(one-pass paradigm)求解目标 (3)。而就我们所知,这是第一次采用传统的遗忘因子 RLS 来在一次通过的约束条件下解决这样的带有分布改变的任务。我们将其命名为 DFOP(Distribution-Free One-Pass 的缩写),并总结为如下算法 1:

报码:南京大学周志华等提出DFOP算法:无分布一次通过

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容