6348 字
32 分钟
高级统计方法 第一轮学习 Chapter 6

高级统计方法 第一轮学习 Chapter 6 线性模型选择与正则化#

准确率与解释力#

0.1 最小二乘的预测准确率(prediction accuracy)#

最小二乘的预测准确率(prediction accuracy)#

  • 若响应变量和预测变量的真实关系近似线性,则最小二乘的偏差较低。

  • 若观测个数 nn 远大于预测变量个数 pp,则最小二乘的方差也较低。

  • 若观测个数 nn 不满足远大于预测变量个数 pp,则使用最小二乘可能导致过拟合,方差较大。

  • 若观测个数 nn 小于预测变量个数 pp,则最小二乘得到的系数估计结果不唯一:此时方差无穷大,无法使用最小二乘法。

0.2 最小二乘的模型解释力(model interpretability)#

最小二乘的模型解释力(model interpretability)#

  • 在多元回归模型中,常常存在一个或多个预测变量与响应变量不存在线性关系的情况,包括一些增加了模型的复杂性、却与模型无关的变量。

  • 通过去除不相关的特征,将无关变量的系数设置为 00,并移除这些无关变量(去不相关)可得到一个更容易解释的模型,但最小二乘法很难将系数置为 00

0.3 改进方法#

子集选择#

pp 个预测变量中挑选出与响应变量相关的变量形成子集,然后再对缩减的变量集合使用最小二乘方法。

压缩估计(正则化)#

基于全部 pp 个预测变量进行模型的拟合,但与最小二乘方法相比,该方法自动将估计系数往零的方向进行压缩。通过系数缩减(又称正则化) 减少方差,还可以用于变量选择。

降维法#

pp 维预测变量投影至 MM 维子空间中(M<pM < p)。这通常通过计算这 pp 个变量的 MM 种不同的线性组合或称投影来实现。将这个不同的投影作为预测变量,再使用最小二乘法拟合线性回归模型。

目标:

  1. 预测准确率:n>>pn >> p

  2. 模型解释力:筛选无关变量

子集选择#

1.1 最优子集选择#

最优子集选择#

  1. 记不含预测变量的零模型为 M0M_0,只用于估计各观测的样本均值。

  2. 对每一个 k=1,2,,pk = 1, 2, \ldots, p

    1. 拟合 (pk)\binom{p}{k} 个包含 kk 个预测变量的子集模型。

    2. 在这 (pk)\binom{p}{k} 个子集模型中,选择 RSS 最小或 R2R^2 最大的那个子集模型,记为 MkM_k

  3. 根据交叉验证模型误差、CpC_p(AIC)、BIC 或者调整 R2R^2M0,,MpM_0, \ldots, M_p 个模型中选择出一个最优模型。

低 RSS 及高 R2R^2 表明模型的训练误差低,随着预测变量的增加,RSS 和 R2R^2 总是变的更好。

但我们的目标是选择一个测试误差低的模型,所以,不能使用训练集的 RSS 和 R2R^2 进行模型选择。需要估计测试误差,然后据此进行选择。

可以考虑两种方法:

  1. 第五章的方法:交叉验证或者验证集等方法,直接估计测试误差;

  2. 对训练误差进行调整,直接估计测试误差:如 CpC_p, AIC, BIC, 调整 R2R^2 等统计量

拓展#

在用于逻辑斯蒂回归时,算法步骤2中应当使用偏差(deviance)替代原先的 RSS 对模型进行选择,偏差与 RSS 作用相似,但适用范围更广。

偏差的定义为:

D=2[(θ^;y)(饱和模型;y)]D = -2 \Big[ \ell(\hat{\theta}; y) - \ell(\text{饱和模型}; y) \Big]D2(θ^;y)(近似成立)D \approx -2 \cdot \ell(\hat{\theta}; y) \quad \text{(近似成立)}

此处,饱和模型就是“理论上能完美拟合所有观测值的模型”。由于在比较不同模型时,饱和模型的对数似然值是一个常数,所以在比较不同模型的偏差时,可以忽略该常数项。

缺点#

  • 最优子集选择方法简单直观,但计算效率不高,当 p>40p>40,该方法不具计算可行性。

  • 随着搜索空间增大,通过此方法找到的模型对新数据不具备很好的预测能力。

  • 从一个巨大搜索空间得到的模型通常会有过拟合和系数估计方差高的问题(含义与上述类似)。

1.2 向前逐步选择#

向前逐步选择#

  1. 记不含预测变量的零模型为 M0M_0

  2. 对每一个 k=0,1,,p1k = 0, 1, \ldots, p - 1

    1. 在当前模型 MkM_k 的基础上,考虑将每一个剩余的预测变量加入到模型中,一共有 pkp - k 个候选模型。

    2. pkp - k 个候选模型中,选择一个 RSS 最小或 R2R^2 最大的模型作为最有模型,记为 Mk+1M_{k+1}

  3. 根据交叉验证模型误差、CpC_p(AIC)、BIC 或者调整 R2R^2M0,,MpM_0, \ldots, M_p 个模型中选择出一个最优模型。

向前逐步选择在运算效率上优于最佳子集选择,仅需要搜索 1+(p0)+(p1)++1=p(p+1)2+11 + (p - 0) + (p - 1) + \ldots + 1 = \frac{p(p+1)}{2} + 1 个模型。但该方法产生了一系列的嵌套模型(一定包含前期已选择的变量),无法保证找到的模型是所有 2p2^p 个模型中最优的。

1.3 向后逐步选择#

向后逐步选择#

  1. 记包含所有 pp 个预测变量的模型为 MpM_p

  2. 对每一个 k=p,p1,,1k = p, p - 1, \ldots, 1

    1. 在当前模型 MkM_k 的基础上,考虑将每一个预测变量从模型中剔除,一共有 kk 个候选模型。

    2. kk 个候选模型中,选择一个 RSS 最小或 R2R^2 最大的模型作为最有模型,记为 Mk1M_{k-1}

  3. 根据交叉验证模型误差、CpC_p(AIC)、BIC 或者调整 R2R^2M0,,MpM_0, \ldots, M_p 个模型中选择出一个最优模型。

向后逐步选择在运算效率上也优于最佳子集选择,仅需要搜索 1+p+(p1)++1=p(p+1)2+11 + p + (p - 1) + \ldots + 1 = \frac{p(p+1)}{2} + 1 个模型。但该方法也产生了一系列的嵌套模型(一定包含前期已选择的变量),无法保证找到的模型是所有 2p2^p 个模型中最优的。

需满足样本量 nn 大于变量个数 pp(从而保证全模型可以被拟合)的条件。

而相应的,向前逐步选择则不需要满足该条件。因此,当 pp 非常大的时候,向前逐步选择是唯一可行的方法(最优子集法和向后逐步选择均不适用)。

如何选择最优模型?#

2.0 选择最优模型#

选择最优模型#

包含所有预测变量的模型总是具有最小的 RSS 和最大的 R2R^2,他们只代表了训练误差,不代表泛化能力。

但我们需要找到具有最小测试误差的模型,而训练误差很多时候是测试误差的一个较差的估计。

所以,并不能只使用训练误差(RSS 和 R2R^2)对包含不同个数预测变量的模型进行模型选择。

所以,为了达到基于测试误差选择最优模型(基本原则)的目的,需要估计测试误差(即:下面的方法是估计某类模型的测试误差的方法),通常有两种方法:

  1. 根据过拟合导致的偏差对训练误差进行调整,间接地估计测试误差。

    CpC_p(AIC)、BIC 或者调整 R2R^2

  2. 采用验证集方法或交叉验证方法,直接估计测试误差。

    验证与交叉验证

2.1 如何选择最优模型?——调整训练误差#

CpC_p#

对采用最小二乘法拟合的一个包含 dd 个预测变量的模型,其 CpC_p 值计算如下:

Cp=1n(RSS+2dσ^2)C_p = \frac{1}{n} (RSS + 2d \hat{\sigma}^2)

其中 σ^2\hat{\sigma}^2 是“观测误差(噪声项)ε\varepsilon 的方差”的估计值。

CpC_p 是在 RSS 的基础上增加了一个惩罚项 2dσ^22d \hat{\sigma}^2,该惩罚项与模型中预测变量的个数 dd 成正比,用于调整训练误差倾向于低估测试误差的现象,惩罚项随着变量个数 dd 的增加而增加,用于调整因增加变量个数而降低的训练集 RSS。

可以证明,如果 σ^2\hat{\sigma}^2 是对观测误差方差的无偏估计,那么对于任意包含 dd 个预测变量的模型,CpC_p 是对测试误差的无偏估计。

σ^2\hat{\sigma}^2 一般通过包含所有预测变量的模型的残差均方来估计: σ^2=1np1RSS全模型,如果模型无截距则分母为 np\hat{\sigma}^2 = \frac{1}{n - p - 1} RSS_{\text{全模型}}, \quad \text{如果模型无截距则分母为 } n - p

BIC#

贝叶斯信息准则(Bayesian information criterion, BIC)

对于包含 dd 个预测变量的最小二乘模型,BIC 通常由下式给出

BIC=1n(RSS+log(n)dσ^2)BIC = \frac{1}{n} (RSS + \log(n) d \hat{\sigma}^2)

测试误差较低的模型 BIC 统计量取值也较低,因此通常选取具有最低 BIC 的模型作为最优模型。

BIC 将 CpC_p 使用的 2dσ^22d \hat{\sigma}^2 替换为 log(n)dσ^2\log(n) d \hat{\sigma}^2 项,其中 nn 为观测数。(可见 n>100n > 100 之后,惩罚较 CpC_p 更大,对含有多个变量的模型惩罚较大;故而,和 CpC_p 相比,得到的模型规模较小)

AIC#

赤池信息量准则(Akaike information criterion, AIC)

AIC 准则适应于许多使用极大似然法(如逻辑斯蒂回归模型)进行拟合的模型,式中 LL 为估计模型似然函数的最大值。

AIC=2log(L)+2dAIC = -2 \log(L) + 2d

若模型误差项服从高斯分布,极大似然估计和最小二乘估计是等价的,AIC 可由下式给出。

AIC=1nσ^2(RSS+2dσ^2)AIC = \frac{1}{n \hat{\sigma}^2} (RSS + 2d \hat{\sigma}^2)

可见,此时 CpC_p 和 AIC 彼此成比例。故而也是越小越好。

调整 R2R^2#

R2=TSSRSSTSS=1RSSTSSR^2 = \frac{TSS - RSS}{TSS} = 1 - \frac{RSS}{TSS} 已经是老生常谈。

其中 TSS=i=1n(yiyˉ)2TSS = \sum_{i=1}^n (y_i - \bar{y})^2 是总平方和, RSS=i=1n(yiy^i)2RSS = \sum_{i=1}^n (y_i - \hat{y}_i)^2 是残差平方和。

  • R2R^2 统计量接近 00 说明回归没有解释太多响应变量的变异。R2R^2 统计量接近 11 说明回归可以解释响应变量的大部分变异。

  • R2R^2 随着模型包含的变量个数的增加而增加,在样本容量一定的情况下,增加解释变量可以减少残差,也可使其自由度减少 。

调整 R2R^2 统计量是另一种常用的对一系列具有不同变量个数的模型进行选择的方法。对于包含 dd 个变量的最小二乘模型,调整 R2R^2 统计量为下式:

调整 R2=1RSS/(nd1)TSS/(n1)\text{调整 } R^2 = 1 - \frac{RSS / (n - d - 1)}{TSS / (n - 1)}
  • 调整 R2R^2 的值越大,模型测试误差越低。

  • 若加入冗余变量,dd 值增加,便会导致调整 R2R^2 的值降低,因此,理论上,拥有最大调整 R2R^2 的模型只包含正确变量,没有冗余变量。

  • 调整 R2R^2 统计量对“纳入不必要变量的模型”引入了惩罚(微弱减少了RSS,但增加了 dd)。

  • CP, BIC, AIC 都经过了严格的理论证明,但调整 R2R^2 并没有严格的理论证明(虽然广泛适用)

2.2 如何选择最优模型?——调整训练误差#

验证集方法 && k折交叉验证 && 留一交叉验证#

优势:

  • 谨记:选择最优模型是基于“对测试误差的估计”。

  • 验证集(或交叉验证)提供了测试误差的直接估计,并且对真实的潜在模型有较少的假设。

  • 适用范围广,即使是在难以精确确定模型自由度(如模型中的 预测数)或难以估计误差方差的情况下。

  • 流程上:先分训练+测试集,然后在训练集上选择最优子集(或逐步选择),然后在测试集上验证各最优子集的误差。

压缩估计#

压缩估计:通过对系数进行约束或加罚,对包含 pp 个预测变量的模型进行拟合,从而将系数估计值往零的方向压缩。

这种方法通过压缩系数估计值,显著减少了估计量方差。

3.1 岭回归#

岭回归#

岭回归(Ridge Regression)通过对系数的平方和进行约束来实现压缩估计。

最小二乘回归的目标是最小化残差平方和 RSS:

RSS=i=1n(yiβ0j=1pβjxij)2RSS = \sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2

而岭回归通过最小化下式,得到对于 β0,β1,,βp\beta_0, \beta_1, \ldots, \beta_p 的估计值:

i=1n(yiβ0j=1pβjxij)2+λj=1pβj2=RSS+λj=1pβj2,λ0\sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2 + \lambda \sum_{j=1}^p \beta_j^2 = RSS + \lambda \sum_{j=1}^p \beta_j^2,\quad \lambda \geq 0

此处,λj=1pβj2\lambda \sum_{j=1}^p \beta_j^2 是一个惩罚项,对模型进行压缩惩罚:当 λ=0\lambda = 0 时,岭回归退化为最小二乘回归;当 λ\lambda \to \infty 时,所有的 βj\beta_j 都趋近于 00

调节压缩程度,选择合适的 λ\lambda 十分重要。

由于岭回归公式中系数平方和项的存在,Xjβ^j,λRX_j\hat{\beta}_{j, \lambda}^R(此处 XjX_j 指的是第 jj 个预测变量,β^j,λR\hat{\beta}_{j, \lambda}^R 指的是第 jj 个预测变量对应的 λ\lambda 惩罚力度下的岭回归系数) 的值不只取决于 λ\lambda,也取决于第 jj 个预测变量的尺度。

因此,在使用岭回归之前,通常需要对每一个预测变量进行标准化处理,使得每一个预测变量的均值为 00,方差为 11

x~ij=xij1ni=1n(xijxj)2\tilde{x}_{ij}=\frac{x_{ij}}{\sqrt{\frac{1}{n}\sum_{i=1}^{n}(x_{ij}-\overline{x}_{j})^{2}}}

其中,分母为第 jj 个预测变量的标准差。

  • 与最小二乘相比,岭回归的优势在于它综合权衡了误差与方差。

  • 随着 λ\lambda 的增加,岭回归拟合结果的光滑度/柔性水平降低,虽然方差降低,但偏差增加。

岭回归劣势:最终模型包含全部的 pp 个变量(将系数压缩至接近 00,但不为 00),当变量个数 pp 非常大时,不便于模型解释。

3.2 lasso 回归#

lasso 回归#

lasso 回归(Least Absolute Shrinkage and Selection Operator, Lasso)通过对系数的绝对值进行约束来实现压缩估计。

lasso 回归的系数通过最小化下式得到:

i=1n(yiβ0j=1pβjxij)2+λj=1pβj=RSS+λj=1pβj,λ0\sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2 + \lambda \sum_{j=1}^p |\beta_j| = RSS + \lambda \sum_{j=1}^p |\beta_j|,\quad \lambda \geq 0

此处,λj=1pβj\lambda \sum_{j=1}^p |\beta_j| 是一个惩罚项,对模型进行压缩惩罚:当 λ=0\lambda = 0 时,lasso 回归退化为最小二乘回归;当 λ\lambda \to \infty 时,所有的 βj\beta_j 都趋近于 00。根据不同的 λ\lambda 取值,lasso可得到包含不同变量个数的模型;相对的,岭回归得到的模型始终包含所有变量,虽然系数估计值会随着 λ\lambda 变化。

lasso 回归与岭回归类似,但由于惩罚项的不同,lasso 回归会将一些系数估计值直接压缩为 00,从而实现变量选择,得到稀疏模型。

调节压缩程度,选择合适的 λ\lambda 十分重要。

3.3 岭回归和 lasso 的其他表达形式#

岭回归和 lasso 的其他表达形式#

可以证明,岭回归和 lasso 回归均可表示为约束优化问题:

  • 最小二乘回归:

    minβ0,β1,,βpi=1n(yiβ0j=1pβjxij)2\min_{\beta_0, \beta_1, \ldots, \beta_p} \sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2
  • 岭回归:

    minβ0,β1,,βpi=1n(yiβ0j=1pβjxij)2subject to j=1pβj2s\min_{\beta_0, \beta_1, \ldots, \beta_p} \sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2 \quad \text{subject to } \sum_{j=1}^p \beta_j^2 \leq s
  • lasso 回归:

    minβ0,β1,,βpi=1n(yiβ0j=1pβjxij)2subject to j=1pβjs\min_{\beta_0, \beta_1, \ldots, \beta_p} \sum_{i=1}^n \left( y_i - \beta_0 - \sum_{j=1}^p \beta_j x_{ij} \right)^2 \quad \text{subject to } \sum_{j=1}^p |\beta_j| \leq s

3.4 对比 lasso 和岭回归#

对比 lasso 和岭回归#

如果将估计系数进行坐标轴表示,最小二乘回归 RSS 相等的所有可能情况将会在最小二乘估计系数处形成一个椭圆。岭回归的约束区域是一个圆形,而 lasso 回归的约束区域是一个菱形。岭回归和 lasso 回归的约束区域与椭圆的的交集则为回归结果。如果 ss 足够大,则条件区域将包含最小二乘解。由于菱形的尖角处更容易与坐标轴相交,因此 lasso 回归更容易将某些系数估计值压缩为 00,实现变量选择。

从贝叶斯角度比较:

  • 最小二乘法中估计参数 β\beta 不受任何约束,会比较奔放,容易过拟合。相应的,lasso 和岭回归引入 β\beta 的先验分布,做了约束以减少过拟合。

  • 具体的,是假设线性模型的残差独立且服从高斯分布,并进一步假设 β\beta 服从某种(先验、已知)概率密度 g(x)g(x)

  • 如果 g(x)g(x) 服从高斯分布且均值为 00 标准差为 λ\lambdaβ\beta 的后验估计最可能为岭回归的形式; λ\lambda 没有稀疏性的作用,但是取值接近 00 时的概率稍大于远离 00 点的取值。

  • 如果 g(x)g(x) 服从双指数(拉普拉斯)分布且均值为 00 且尺度参数为 λ\lambdaβ\beta 的后验估计最可能为 lasso 的形式,根据分布 laplace 倾向舍弃影响较小的参数(分布中间取为 00 比较陡峭),取值接近 00 的概率远大于远离 00 的概率。

  • 二者在性质上相似:随着 λ\lambda 增大,方差减小而偏差平方和增大。

  • 岭回归和 lasso 没有哪个是永远更好的。

  • 当一小部分预测变量是真实有效的而其他预测变量系数非常小或者等于零时,lasso 更好。

  • 当响应变量是很多预测变量的函数并且这些变量系数大致相等,岭回归较好。

  • 对于真实的数据集,与响应变量相关的变量个数是无法先验知道的,可用交叉验证等技术来确定哪种方法对特定数据集更好。

降维法#

4.0 降维方法#

降维方法:将预测变量进行转换,然后用转换之后的变量拟合最小二乘模型。

Z1,Z2,,ZMZ_1, Z_2, \ldots, Z_M 表示 M 个原始预测变量的线性组合(M<pM<p,共有 pp 个原始变量)即:

Zm=j=1pϕjmXj,m=1,2,,MZ_m = \sum_{j=1}^p \phi_{jm} X_j, \quad m = 1, 2, \ldots, M

其中,ϕjm\phi_{jm} 是第 mm 个新变量 ZmZ_m 中第 jj 个原始变量 XjX_j 的系数。

变换后,可用下式拟合线性模型:

yi=θ0+m=1MθmZim+εi,i=1,2,,ny_i = \theta_0 + \sum_{m=1}^M \theta_m Z_{im} + \varepsilon_i, \quad i = 1, 2, \ldots, n

即降维可使估计 p+1p+1 个系数的问题转化为估计 M+1M+1 个系数的问题,这里 M<pM<p,即维度从 p+1p+1 降到 M+1M+1

降维过程一般为两个过程:

  1. 将原始变量转换为 Z1,Z2,,ZMZ_1, Z_2, \ldots, Z_M

  2. MM 个变量建立模型。

选择 Z1,Z2,,ZMZ_1, Z_2, \ldots, Z_M,也就是选择 ϕjm\phi_{jm} 可以通过多种不同方法,如以下两种方法

  • 主成分回归(Principal Components Regression, PCR)

  • 偏最小二乘(Partial Least Squares, PLS)

4.1 主成分回归#

主成分回归#

主成分分析(PCA):用投影的方法将高维空间(仅对 XX,跟 YY 无关)压缩到低维。

简要过程:

输入:样本集 XX,包含 nn 个观测和 pp 个预测变量,为 ppnn 列的矩阵。

过程:

  1. XX 的每一行(代表一个属性字段)进行零均值化,即减去这一行的均值。

  2. 计算协方差矩阵 C=1nXXTC = \frac{1}{n} XX^T

  3. 计算协方差矩阵 CC 的特征值和特征向量。

  4. 将特征向量按对应特征值大小从上到下按行排列成矩阵,w1,w2,,wp\mathcal{w}_{1},\mathcal{w}_{2},\cdots,\mathcal{w}_{p},取前 kk 个特征值所对应的特征向量组成矩阵 WW

输出:投影矩阵 W=[w1,w2,,wk],Y=WXW = [\mathcal{w}_{1}, \mathcal{w}_{2}, \ldots, \mathcal{w}_{k}], Y = WX 即为降维到 kk 维后的数据。

把 PCA 做降维后的特征应用到线性回归,指构造前 MM 个主成分,然后以这些主成分作为预测变量,用最小二乘拟合线性回归模型。

  • 少数的主成分足以解释大部分的(原始)数据波动,然后建立主成分与响应变量 yy 之间的关系。
  • 主成分数量 MM 一般通过交叉验证确定。

偏最小二乘#

一种有指导的主成分回归替代方法,同样是一种降维手段。

  • 主成分回归 PCR 降维过程中仅针对预测变量 XX(找到 XX 变化最快的方向),响应变量 YY 不参与降维的过程。所以,PCR 不能保证最能解释预测因子 XX 的方向也是预测反应变量 YY 的最佳方向。

  • 而 PLS 以监督的方式进行新特征提取,试图寻找一个可以同时解释响应变量 YY 和预测变量 XX 的方向。

  • 同 PCR 一样,变量个数 MM 也是需要调节的参数,常用交叉验证选择。

  • PLS 回归前需要对预测变量进行标准化处理。

  • 总的来说,降维过程是有监督的(与 PCR 的区别),优化目标权衡了方差最大化和与 YY 的相关系数最大化。

过程:

  1. pp 个预测变量进行标准化处理。

  2. 对每个变量 XjX_j 逐次进行简单线性回归,Y=β0+βj×Xj+ε0Y = \beta_0 + \beta_j \times X_j + \varepsilon_0;基于此设置第一个偏最小二乘方向:Z1=j=1pβj×XjZ_1 = \sum_{j=1}^p \beta_j \times X_j,可见:βj\beta_jYYXjX_j 的简单回归系数。

  3. 计算 Y=θ0+θ1Z1+ε1Y = \theta_0 + \theta_1 Z_1 + \varepsilon_1,简单线性回归后得可得 θ0\theta_0θ1\theta_1 以及 ε1\varepsilon_1。(Z1Z_1 拟合 YY,得到 YY 的残差)

  4. γj\gamma_j 系数是 XjX_jZ1Z_1 的回归系数,也就是 Xj=γj×Z1+εjX_j = \gamma_j \times Z_1 + \varepsilon_j (这一步不需要 YY 的指导,用 Z1Z_1 拟合每个 XjX_j 得到系数 γj\gamma_j ,得到残差);进一步计算(正交化)XX 变量,Xj=Xjγj×Z1X_j = X_j - \gamma_j \times Z_1(j=1,2,,p)(j = 1, 2, \ldots, p); (Z1Z_1 拟合 XX,得到 XX 的残差)

  5. 将残差送给 YY,也就是 Y=θ0+ϵ1Y = \theta_0 + \epsilon_1

  6. 重复步骤2-5,直到得到 MM 个偏最小二乘方向 Z1,Z2,,ZMZ_1, Z_2, \ldots, Z_M

步骤通俗理解真实目的
1避免量级大的变量会“霸凌”整个过程对所有预测变量 XjX_j 做标准化:X~j=(XjXˉj)/sd(Xj)\tilde X_j=(X_j-\bar X_j)/\mathrm{sd}(X_j),让所有 XX 公平竞争
2找到对 YY 最有“信息”的方向(直观)求第一个 PLS 成分 Z1=j=1pβjXjZ_1=\sum_{j=1}^p \beta_j X_j,使得 cov2(Z1,Y)\operatorname{cov}^2(Z_1,Y) 最大(即该线性组合对 YY 的预测能力最强)
3YY 中把能被 Z1Z_1 解释的部分拿走Z1Z_1 上回归 Y=θ0+θ1Z1+ε1Y=\theta_0+\theta_1 Z_1+\varepsilon_1,得到残差 ε1=Y(θ0+θ1Z1)\varepsilon_1=Y-(\theta_0+\theta_1 Z_1)
4XX 中去掉被 Z1Z_1 解释的部分(直观)对每个 XjX_j 回归 Xj=γjZ1+residualX_j=\gamma_j Z_1+\text{residual},做 deflation:XjXjγjZ1X_j\leftarrow X_j-\gamma_j Z_1,保证剩余 XXZ1Z_1 正交,避免后续重复提取相同方向
5把第 3 步得到的 YY 的残差 ε1\varepsilon_1 作为新的 YY 继续ε1\varepsilon_1 替代原始 YY,进入下一轮成分提取(即对剩余信息继续建模)
6反复上述步骤直到得到若干成分(直观)得到 Z1,,ZMZ_1,\dots,Z_MMM 个互相正交的成分,按照顺序依次最大化 cov2(Zm,Y)\operatorname{cov}^2(Z_m,Y)MM 可用交叉验证选取

可见,在寻找 ZZ 的过程中,使用 ZZ 同时解释 YYXX

在计算 Z1Z_1 时,偏最小二乘将最大权重赋给与响应变量相关性最强的变量。

高维问题#

5.1 高维数据的问题#

高维数据的问题#

低维数据:观测数 nn 远大于预测变量数 pp,即 n>>pn >> p

高维数据:预测变量数 pp 与观测数 nn 相当,甚至大于观测数 nn,即 pnp \approx np>np > n

在高维数据下只考虑 R2R^2 和训练数据集均方误差可能得到“包含最多变量的模型是好的”的错误结论。

此时应对独立测试集上评估性能给予更多的考虑。

5.2 高维数据的回归#

高维数据的回归#

本章所提的用于拟合并不光滑的最小二乘模型的方法,在高维回归中作用很大,与直接使用最小二乘相比,有效的解决了过拟合的问题。

  1. 正则化或压缩在高维问题中至关重要。

  2. 合适的调节参数对于得到好的预测非常关键。

  3. 测试误差会随着数据维度的增加而增大,除非新增特征变量与响应变量确实相关。

5.3 分析结果的解释#

分析结果的解释#

使用 lasso、岭回归或其他回归过程拟合高维数据时,必须非常谨慎地解释模型的结果:

  1. 共线性问题:模型中的任何一个变量都可以写成其他所有变量的线性组合。无法准确地知道哪个变量可以预测输出变量,也无法确定最优系数。即使得到某个变量组合的预测效果不错,但也可能有很多个类似变量的集合可以达到类似的效果。 能有很多个类似变量的集合可以达到类似的效果。

  2. 高维数据拟合模型的误差和拟合效果的解释,当 p>np>n 时,很容易得到残差为零,但是没有用的模型;所以,不能在训练数据集上用误差平方和、pp 值、R2R^2 统计量或者其他传统的对模型拟合效果的度量方法来证明高维情况下模型拟合的效果。

    重要的是在独立的测试集进行验证,或者进行交叉验证。

高级统计方法 第一轮学习 Chapter 6
https://blog.farewe1ll.top/posts/高级统计方法第一轮学习-chapter_6/
作者
Farewe1ll 山竹
发布于
2025-11-23
许可协议
CC BY-NC-SA 4.0