线性回归中的许多概念仍然用于逻辑回归之中。我们可以再次使用公式 y = W.x + b,但是有一些不同的地方。让我们看看线性回归和逻辑回归的公式:
线性回归与逻辑回归的区别与相似 区别: 结果(y):对于线性回归,结果是一个标量值(可以是任意一个符合实际的数值),例如 50000,23.98 等;对于逻辑回归,结果是一个整数(表示不同类的整数,是离散的),例如 0,1,2,... 9。 特征(x):对于线性回归,特征都表示为一个列向量;对于涉及二维图像的逻辑回归,特征是一个二维矩阵,矩阵的每个元素表示图像的像素值,每个像素值是属于 0 到 255 之间的整数,其中 0 表示黑色,255 表示白色,其他值表示具有某些灰度阴影。 成本函数(成本):对于线性回归,成本函数是表示每个预测值与其预期结果之间的聚合差异的某些函数;对于逻辑回归,是计算每次预测的正确或错误的某些函数。 相似性: 训练:线性回归和逻辑回归的训练目标都是去学习权重(W)和偏置(b)值。 结果:线性回归与逻辑回归的目标都是利用学习到的权重和偏置值去预测/分类结果。 协调逻辑回归与线性回归 为了使逻辑回归利用 y = W.b + x,我们需要做出一些改变以协调上述差异。 1.特征变换,x 我们可以将二维的图片特征(假设二维特征有 X 行,Y 列)转换成一维的行向量:将第一行以外的其它行数值依顺序放在第一行后面。
转换图像特征以适用于逻辑回归公式 2.预测结果转换,y 对于逻辑回归,y 不能作为标量,因为预测可能最终为 2.3 或 11,这不在可能的类 [0,1,...,9] 中。 为了解决这个问题,y 应该被转换成列向量,该向量的每个元素代表逻辑回归模型认为属于某个特定类的得分。在下面的示例中,预测结果为类'1',因为它具有最高得分。
每个类的分数和具有最高分数的类成为被预测的类 对于给定的图片,为求这个分数向量,每个像素都会贡献一组分数(针对每一类),分数表示系统认为这张图片属于某类的可能性,每个像素分数之和成为预测向量。
每个像素提供一个分数向量;每个类别有一个分数,最后变成预测向量。所有预测向量的总和变成最终预测。 3.成本函数的变换 涉及到预测结果和实际结果之间数值距离的任何函数都不能作为成本函数。对于数字图片「1」,这样的成本函数将使预测值「7」(7-1=6)更严重地惩罚预测值「2」(2-1=1),尽管两个预测结果都是错误的。 我们即将使用的成本函数,交叉熵(H),用以下几个步骤实现: 1. 将实际图片的类向量(y')转化成 one-hot 向量,这是一个概率分布。 2. 将预测类 (y) 转化成概率分布。 3. 使用交叉熵函数去计算成本函数,这表示的是两个概率分布函数之间的差异。 第一步:One-hot 向量 由于我们已经将预测 (y) 转换成分数向量,因此,我们也应该将实际图片类(y』)转换成相同维数的向量;one-hot 向量是将对应于实际类的的元素为设为 1,其它元素为 0。下面,我们展示表示 0-9 十个类中一个类的 one-hot 向量。
图片类和它们的 one-hot 向量表示 假设实际图像上是数字「1」(y'),它的 one-hot 向量是 [0,1,0,0,0,0,0,0,0,0],假设其预测向量 (y) [1.3, 33, 2, 1.2, 3.2, 0.5, 3, 9.2, 1],绘制比较如下: 真实图片 one—hot 向量(顶)预测类别概率 第二步:用 softmax 实现概率分布 (责任编辑:本港台直播) |