Scikit Learn 中的 Ledoit-Wolf 与 OAS 估计


理解估计协方差矩阵的各种技术在机器学习领域至关重要。Scikit-Learn 包含两种流行的协方差估计方法,本文将对它们进行比较:Ledoit-Wolf 和 Oracle 近似收缩 (OAS) 估计。

协方差估计简介

在我们开始比较之前,让我们先了解协方差估计。在统计和数据分析中,协方差估计是一种用于理解和量化数据集中多个维度或特征之间关系的技术。在处理多维数据集时,这一点变得更加重要,因为理解各种变量之间的关系可以提高机器学习模型的性能。

Ledoit-Wolf 估计

Ledoit-Wolf 协方差估计方法采用向结构化估计量的收缩。这种技术在处理高维数据时特别有用,在高维数据中,特征数量超过可用样本数量。在这种情况下,使用数据生成的经验协方差矩阵不是可靠的估计。为了解决这个问题,Ledoit-Wolf 收缩方法通过向单位矩阵方向收缩来增强经验协方差矩阵。

Oracle 近似收缩 (OAS) 估计

与 Ledoit-Wolf 估计器一样,OAS 估计器也估计收缩,但它使用不同的目标矩阵。OAS 估计器将经验协方差矩阵收缩到期望值矩阵而不是单位矩阵。在 OAS 估计中考虑收缩时,均方误差会降低,从而产生通常比 Ledoit-Wolf 性能更好的估计。

Scikit-Learn 中的 Ledoit-Wolf 与 OAS 估计:比较分析

让我们使用 Scikit-Learn 的示例更详细地检查 Ledoit-Wolf 和 OAS 估计之间的比较。

示例 1:基本的协方差估计

from sklearn.covariance import LedoitWolf, OAS
import numpy as np

# Generating a sample dataset
np.random.seed(0)
X = np.random.normal(size=(100, 3)) 

# Ledoit-Wolf estimation
lw = LedoitWolf()
lw.fit(X)
print("LedoitWolf Covariance:\n", lw.covariance_)

# OAS estimation
oas = OAS()
oas.fit(X)
print("OAS Covariance:\n", oas.covariance_)

在这个简单的示例中,使用随机生成的数据集,使用 Ledoit-Wolf 和 OAS 方法来确定协方差矩阵。由于多个收缩目标,您会看到协方差矩阵相似但不完全相同。

示例 2:高维数据

from sklearn.covariance import LedoitWolf, OAS
import numpy as np

# Generating high-dimensional data
np.random.seed(0)
X = np.random.normal(size=(50, 200))  # 50 samples, 200 features

# Ledoit-Wolf estimation
lw = LedoitWolf()
lw.fit(X)
print("LedoitWolf Covariance:\n", lw.covariance_)

# OAS estimation
oas = OAS()
oas.fit(X)
print("OAS Covariance:\n", oas.covariance_)

同样,在这个高维情况下,Ledoit-Wolf 和 OAS 计算产生不同的结果。由于数据的维度很高,两种估计器之间的差异将更加明显。OAS 估计在这种情况下通常表现更好。

务必记住,在高维情况下,Ledoit-Wolf 和 OAS 估计都将比经验协方差产生更可靠的结果。选择使用 Ledoit-Wolf 还是 OAS 将取决于您的应用程序的具体要求。

示例 3:比较收缩

比较这两个估计器的另一种方法是查看它们的收缩参数。

# Generating a sample dataset
np.random.seed(0)
X = np.random.normal(size=(100, 3)) 

# Ledoit-Wolf estimation
lw = LedoitWolf()
lw.fit(X)
print("LedoitWolf Shrinkage:", lw.shrinkage_)

# OAS estimation
oas = OAS()
oas.fit(X)
print("OAS Shrinkage:", oas.shrinkage_)

在本例中,查看每个估计器的 `shrinkage_` 属性,以了解应用于经验协方差矩阵的收缩量。精确的收缩值将取决于估计器和底层数据。

结论

在高维情况下,Ledoit-Wolf 和 OAS 是两种有效的协方差估计方法,可提供准确的估计。由于其对期望值矩阵的最佳收缩,尤其是在处理高维数据时,OAS 估计器通常优于 Ledoit-Wolf 估计器。

但是,应根据机器学习项目的具体需求和约束来选择使用 Ledoit-Wolf 还是 OAS。尽管 OAS 通常会产生更好的结果,但在某些情况下,由于其计算效率和简单性,Ledoit-Wolf 估计可能更合适。需要进行实验才能确定最适合您的数据集和情况的估计器。

更新于:2023年7月17日

263 次浏览

启动您的 职业生涯

通过完成课程获得认证

开始
广告