8.8 KiB
title, id, date, auther, cover, excerpt, permalink, categories, tags
| title | id | date | auther | cover | excerpt | permalink | categories | tags | ||
|---|---|---|---|---|---|---|---|---|---|---|
| Linear Regression 线性回归 | 019d86e4-4749-708c-b0ba-240fc8a8dbf8 | 2026-04-13 20:50:39 | openknow | 线性回归通过建立自变量与因变量之间的线性关系来预测数值,通过最小化平方损失函数求解权重,可采用解析解或梯度下降法优化参数。 | /archives/linear-regression-xian-xing-hui-gui |
|
|
Linear Regression 线性回归
回归是能为一个或多个自变量与因变量之间关系建模的一类方法。回归经常用来表示输入和输出之间的关系。
在机器学习领域中的大多数任务通常都与预测(prediction)有关。当我们想预测一个数值时,就会涉及到回归问题。
一、线性回归基本元素
假设我们要开发一个能预测房价的模型,我们需要收集一个真实的数据集。这个数据集包括了房屋的销售价格、面积和房龄。
在机器学习的术语中,该数据集称为训练数据集或训练集。
每行数据(比如一次房屋交易相对应的数据)称为样本(sample),也可以称为数据点(data point)或数据样本(data instance)。
我们把试图预测的目标(比如预测房屋价格)称为标签或目标。预测所依据的自变量(面积和房龄)称为特征或协变量。
我们通常使用 n 来表示数据集中的样本数,对索引为 i 的样本,其输入表示为 $x^{(i)}=\left[x_{1}^{(i)}, x_{2}^{(i)}\right]^{\top}$,其对应标签为 $y^{(i)}$。
二、线性模型
线性假设是指目标(房屋价格)可以表示为特征(面积和房龄)的加权和。
\text{ price}=\omega_{\text{area}}\cdot\text{ area}+\omega_{\text{age}}\cdot\text{ age}+b
其中:
\omega_{\text{area}}和\omega_{\text{age}}称为权重(weight),决定了每个特征对我们预测值的影响b称为偏置(bias)、偏移量(offset)或截距(intercept),也就是噪声项
我们的目标是寻找模型的权重 \omega 和偏置 $b$,使得根据模型做出的预测大体符合数据里的真实价格。输出的预测值由输入特征通过线性模型的仿射变换决定,仿射变换由所选权重和偏置确定。
高维数据集表示
对于高维数据集,建模时采用线性代数表示法。输入包含 d 个特征时,我们将预测结果 \hat{y} 表示为:
\hat{y}=\omega_1 x_1+\ldots+\omega_d x_d+b
将所有特征放到向量 x\in R^d 中,将所有权重放到向量 \omega\in R^d 中,得到简洁的点积形式的表达式模型:
\hat{y}=x^{\top}\omega+b
矩阵 X\in R^{n\times d} 可以很方便地引用我们整个数据集的 n 个样本。其中,X 的每一行是一个样本,每一列是一种特征。
对于特征集合 $X$,预测值 \hat{y}\in R^n 可以通过矩阵-向量乘法表示为:
\hat{y}=X\omega+b
为了减少少量的观测误差出现,即使确信特征与标签的潜在关系是线性的,我们也会加入一个噪声项来考虑观测误差带来的影响。
三、损失函数
损失函数量化了目标的真实值与预测值之间的距离。
损失通常是一个非负值。数值越小越好,完美的预测会带来 0 损失。对于回归问题,最常见的损失函数是平方误差。
当我们在样本 i 上的预测值是 $\hat{y}^{(i)}$,对应的真实标签是 y^{(i)} 时,平方误差损失由下式给出:
l^{(i)}(w, b)=\frac{1}{2}\left(\hat{y}^{(i)}-y^{(i)}\right)^2
注: 常数
\frac{1}{2}没有实质影响,但在数学表示上很方便,因为当我们对损失求导时,它会被消去。
由于二次形式,估计值 \hat{y}^{(i)} 和目标值 y^{(i)} 之间的较大差异会导致对损失更大的贡献(虽然它鼓励模型避免大错误,但也可能导致对异常数据的过度敏感)。
为了衡量模型在整个 n 个样本数据集上的质量,我们简单地对训练集上的损失进行平均(或等效地求和):
L(w, b)=\frac{1}{n}\sum_{i=1}^n l^{(i)}(w, b)=\frac{1}{n}\sum_{i=1}^n\frac{1}{2}\left(w^{\top} x^{(i)}+b-y^{(i)}\right)^2
我们寻找能够最小化所有训练样本总损失的参数 $\left(w^, b^\right)$:
w^*, b^*=\underset{w, b}{\operatorname{argmin}} L(w, b)
四、求解方法
4.1 解析解
首先在线性回归模型中,我们的目标是找到最优的参数向量 $w$(我们将偏置值 b 合并在 w 中,合并的方法是在包含所有参数的矩阵中附加一列),使得预测值 Xw 与真实值 y 之间的差距最小。
这个差距用平方损失(squared error)来衡量,即 $|y-Xw|^{2}$,我们的目标就是最小化这个损失函数。
由于这个损失函数是"凸函数"(convex function),我们只需要找到那个唯一的坡度为零的点,它就是我们要找的最小值点。
推导过程
步骤 1:展开损失函数
L(w)=\|y-Xw\|^2=(y-Xw)^{T}(y-Xw)
步骤 2:对 w 求梯度并设为零
\nabla L(w)=0
步骤 3:计算梯度
根据矩阵微积分的知识可以直接计算:
\nabla L(w)=2X^{\top}(Xw-y)=0
步骤 4:解关于 w 的方程
\begin{align*}
X^{\top}(Xw-y)&=0\\
X^{\top}Xw-X^{\top}y&=0\\
X^{\top}Xw&=X^{\top}y
\end{align*}
步骤 5:求解 $w$
现在,只要矩阵 \left(X^{\top}X\right) 是可逆的(通常数据满足这个条件),我们就可以在等式两边同时乘以它的逆矩阵,从而解出:
\begin{align*}
\left(X^{\top}X\right)^{-1}\left(X^{\top}X\right)w&=\left(X^{\top}X\right)^{-1}X^{\top}y\\
w&=\left(X^{\top}X\right)^{-1}X^{\top}y
\end{align*}
我们就得到了解析解(Analytic Solution):
万能公式:
w=\left(X^{\top}X\right)^{-1}X^{\top}y
解析解的局限性
这种求 w 和 b 的方法是暴力求解的,是专门为"线性回归"这种简单的问题设计的,但是现实世界的问题要复杂得多,根本没有这样一个现成的公式。
并且其计算量巨大,计算太慢。因此接下来要介绍的是一种更高效的方法,靠"试"和"猜"的思路,即梯度下降法。
4.2 小批量随机梯度下降法
基本思想
随机梯度下降法简单理解:假设我们要寻找一个一元函数 f(x) 的最小值点。
用梯度下降的方法就是,先假设在一点 x_0 处函数值最小,然后求出导数 $f^{\prime}\left(x_0\right)$,如果导数大于零,就说明函数在 x_0 处是单调递增的。
因此我们要根据导数的正负去修改 x_0 的方向,如果导数大于零,那么对 x_0 进行减操作。反之则进行加操作,以此不断逼近函数的最小值。
那么如何确定移动的步长呢?最简单的就是取函数的导数值的大小,x_0 就不断地以 x_0-f^{\prime}\left(x_0\right) 进行更新。
学习率
以导数值的大小作为步长看起来不错,但是实际上还需要乘以一个步长的系数。
步长系数更正式的名字叫做学习率(Learning Rate)。因为导数值并不是总是那么合适:
- 有时候偏大,导致步长太大,跳过全局最小值
- 有时候偏小,导致训练过程很慢
这时就可以通过设置学习率来调整。一般情况下,学习率都是小于 1 的。比如设置为 0.001。
多元函数的更新公式
经过上面以一元函数为例对随机梯度下降法的简单分析,下面我们直接给出多元函数的随机梯度下降的更新公式:
(w, b)\leftarrow(w, b)-\frac{\eta}{|\mathcal{B}|}\sum_{i\in\mathcal{B}}\partial_{(w, b)} l^{(i)}(w, b)
其中:
| 符号 | 含义 |
|---|---|
\eta |
步长系数,即学习率 |
\mathcal{B} |
小批量样本。因为在每一次更新参数之前,我们必须遍历整个数据集,实际中的执行可能会非常慢。因此,我们通常会在每次需要计算更新的时候随机抽取一小批样本,它是由固定数量的训练样本组成的 |
\partial_{w, b} l^{(i)}(w, b) |
第 i 个样本的损失函数对 w 和 b 的偏导数 |
五、总结
在机器学习领域,在训练过程中由算法调整的变量叫做参数。
- 参数是通过数据学习而来的,不是人为设定的
- 参数决定了模型如何从输入数据映射到输出
超参数是模型训练前需要人为设置的变量,它们不会在训练过程中自动学习,而是由人根据实验或者经验设定的。比如学习率就是一个超参数。
线性回归恰好是一个在整个域中只有一个最小值的学习问题。
但是对像深度神经网络这样复杂的模型来说,损失平面上通常包含多个最小值。
我们很难做到的是找到一组参数,这组参数能够在我们从未见过的数据上实现较低的损失,这一挑战被称为泛化(generalization)。