2021-12-06

线性回归

以通用的监督学习为例,基本包含4个部分:

机器学习从零开始系列连载——线性回归

01

偏差与方差

● 在机器学习算法中,偏差是由先验假设的不合理带来的模型误差,高偏差会导致欠拟合:所谓欠拟合是指对特征和标注之间的因果关系学习不到位,导致模型本身没有较好的学到历史经验的现象;

● 方差表征的是模型误差对样本发生一定变化时的敏感度,高方差会导致过拟合:模型对训练样本中的随机噪声也做了拟合学习,导致在未知样本上应用时出现效果较差的现象;

● 机器学习模型的核心之一在于其推广能力,即在未知样本上的表现。

对方差和偏差的一种直观解释

机器学习从零开始系列连载——线性回归

一个例子,假如我们有预测模型:

机器学习从零开始系列连载——线性回归

我们希望用f^e(x)估计f(x),如果使用基于square loss 的线性回归,则误差分析如下:

机器学习从零开始系列连载——线性回归
机器学习从零开始系列连载——线性回归

所以大家可以清楚的看到模型学习过程其实就是对偏差和方差的折中过程。

02

模型原理

标准线性回归通过对自变量的线性组合来预测因变量,组合自变量的权重通过最小化训练集中所有样本的预测平方误差和来得到,原理如下。

● 预测函数

机器学习从零开始系列连载——线性回归

● 参数学习-采用最小二乘法

机器学习从零开始系列连载——线性回归

所有机器学习模型的成立都会有一定的先验假设,线性回归也不例外,它对数据做了以下强假设:

● 自变量相互独立,无多重共线性

● 因变量是自变量的线性加权组合:

机器学习从零开始系列连载——线性回归

● 所有样本独立同分布(iid),且误差项服从以下分布:

机器学习从零开始系列连载——线性回归

最小二乘法与以上假设的关系推导如下:

机器学习从零开始系列连载——线性回归

使用MLE(极大似然法)估计参数如下:

机器学习从零开始系列连载——线性回归

线性回归有两个重要变体:

● Lasso Regression:采用L1正则并使用MAP做参数估计

● Ridge Regression:采用L2正则并使用MAP做参数估计

关于正则化及最优化后续会做介绍。

03

损失函数

机器学习从零开始系列连载——线性回归

进一步阅读可参考:https://en.wikipedia.org/wiki/Least_squares