当前位置: 首页 > article >正文

机器学习系列-----主成分分析(PCA)

一、什么是主成分分析(PCA)?

主成分分析(Principal Component Analysis,简称PCA)是一种常用的线性降维技术,它通过正交变换将数据从高维空间映射到低维空间,同时尽量保留数据的方差。PCA的目的是将数据中最重要的特征提取出来,去掉冗余的信息,从而减少数据的维度,并且使得数据的解释更加直观。

PCA不仅是数据预处理的一种手段,也在许多机器学习和数据分析中得到广泛应用。比如,图像处理、金融数据分析、基因组学等领域,都可以利用PCA来减少维度、降低计算复杂度。

二、PCA的数学原理

PCA的核心思想是将数据投影到新的坐标系,使得投影后的数据具有最大方差。具体来说,PCA通过以下步骤来实现降维:

数据标准化:
在进行PCA之前,通常需要对数据进行标准化(标准化是指将每一维特征转换为均值为0,方差为1的数据)。这样做的原因是,PCA是基于方差的,如果不同特征的量纲不同(比如,身高和体重),方差大的特征会主导降维结果。

计算协方差矩阵:
协方差矩阵描述了数据中不同特征之间的关系。PCA通过计算协方差矩阵来找到数据中变化最大(方差最大)的方向。

计算特征值和特征向量:
特征值和特征向量是协方差矩阵的关键。特征向量代表了数据在新坐标系中的方向,而特征值则代表了该方向上的数据的方差大小。PCA的目标是选择特征值最大的几个特征向量。

排序特征值并选择主成分:
对特征值从大到小排序,选择前几个特征值对应的特征向量作为主成分。主成分数目通常由降维后的目标维度决定。

转换数据:
最后,将原始数据通过主成分矩阵进行变换,得到降维后的数据。

三、PCA的优缺点

优点:
降维和可视化:PCA可以将高维数据投影到低维空间,常用于数据的可视化,尤其是在2D或3D空间中。
去冗余:PCA通过选择方差最大的方向,去掉了冗余的特征,有助于去除噪声。
提高效率:减少数据的维度可以减少计算和存储的开销,尤其在处理海量数据时尤为重要。
缺点:
线性假设:PCA是一个线性方法,对于非线性的数据结构,它可能不适用。
难以解释:PCA转换后的主成分往往是组合特征,可能不具有直观的物理意义。
对异常值敏感:PCA对异常值较为敏感,可能会影响降维结果。
四、PCA的应用场景
降维:PCA常用于数据预处理,特别是在高维数据集上,如文本数据、图像数据等,能够有效减少计算复杂度。
数据可视化:通过将数据降到2D或3D,可以更直观地观察数据的分布和潜在的模式。
特征提取:在很多机器学习任务中,PCA可以用作特征工程的一部分,通过提取数据的主要成分来减少特征数量。
去噪声:通过选择主要成分,PCA可以在某些情况下有效去除数据中的噪声。

四、PCA代码实现

接下来我们将用Python的sklearn库来实现PCA,使用泰坦尼克号数据集(或任何其他数据集)进行降维。

1. 导入必要的库

import numpy as np
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler

2. 加载数据

我们使用Seaborn库中的泰坦尼克号数据集,并对其进行预处理。

# 加载数据集
titanic = sns.load_dataset('titanic')

# 查看前几行
print(titanic.head())

 3. 数据预处理

在进行PCA之前,我们需要选择合适的特征,并对其进行标准化。我们将删除空值,并选择数值型的特征。

# 选择数值型特征
titanic_data = titanic[['age', 'fare', 'sibsp', 'parch']].dropna()

# 标准化数据
scaler = StandardScaler()
scaled_data = scaler.fit_transform(titanic_data)

# 查看标准化后的数据
print(scaled_data[:5])

4. 应用PCA

接下来,我们使用PCA进行降维,将数据从4维降到2维。

# 应用PCA
pca = PCA(n_components=2)
pca_data = pca.fit_transform(scaled_data)

# 将降维后的数据转换为DataFrame
pca_df = pd.DataFrame(pca_data, columns=['PC1', 'PC2'])

# 查看降维后的数据
print(pca_df.head())

5. 可视化PCA结果

通过将数据降到二维,我们可以更好地理解数据的分布。我们绘制散点图,查看降维后的数据。 

# 可视化PCA结果
plt.figure(figsize=(8,6))
plt.scatter(pca_df['PC1'], pca_df['PC2'], c=titanic_data['age'], cmap='viridis')
plt.title("PCA of Titanic Dataset")
plt.xlabel('Principal Component 1')
plt.ylabel('Principal Component 2')
plt.colorbar(label='Age')
plt.show()

6. 解释PCA结果

我们还可以查看每个主成分的方差贡献率,了解每个主成分的重要性。

# 查看主成分的方差贡献率
print("Explained variance ratio:", pca.explained_variance_ratio_)

# 查看总的解释方差
print("Total explained variance:", sum(pca.explained_variance_ratio_))

五、 PCA的应用场景


1.数据预处理与降维:

高维数据降维:当数据集包含很多特征时,PCA可以帮助提取最重要的特征,减少计算成本,同时避免过拟合。
去噪:PCA可以通过选择前几个主成分来去除噪声和冗余信息,提高模型的性能。

PCA常用于图像压缩和降维中,尤其是在面临图像数据集时,PCA能够帮助减少特征数量并保持数据的主要信息。我们通过PCA对图像数据进行降维并重构原图,展示压缩效果。

代码实现:图像降维与重构

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_sample_image

# 加载一个示例图像(比如一个小的图片数据集)
china = load_sample_image("china.jpg")

# 展示原始图像
plt.figure(figsize=(6, 6))
plt.imshow(china)
plt.title('Original Image')
plt.axis('off')
plt.show()

# 将图像展平成二维数组:每一行代表一个像素点的RGB值
china_flat = china.reshape(-1, 3)

# 标准化图像数据
scaler = StandardScaler()
china_scaled = scaler.fit_transform(china_flat)

# 使用PCA降维
pca = PCA(n_components=50)  # 降到50个主成分
china_pca = pca.fit_transform(china_scaled)

# 使用降维后的主成分重构图像
china_reconstructed = pca.inverse_transform(china_pca)

# 将重构后的图像恢复成原始尺寸
china_reconstructed = scaler.inverse_transform(china_reconstructed)
china_reconstructed = china_reconstructed.reshape(china.shape)

# 展示降维重构后的图像
plt.figure(figsize=(6, 6))
plt.imshow(china_reconstructed)
plt.title('Reconstructed Image with PCA')
plt.axis('off')
plt.show()

2.特征选择与提取:

特征工程:通过PCA,特征的相关性被降低,新的特征(主成分)是原始特征的线性组合,这有助于提高一些机器学习算法(如线性回归、支持向量机等)的表现。

PCA应用:特征选择与机器学习模型
在机器学习中,我们可以用PCA来进行特征选择,尤其是在数据维度较高时。通过减少冗余特征,PCA帮助提升算法效率。

代码实现:PCA降维后使用KNN进行分类

from sklearn.decomposition import PCA
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score

# 加载Iris数据集
iris = load_iris()
X = iris.data
y = iris.target

# 数据集拆分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 使用PCA降维到2个主成分
pca = PCA(n_components=2)
X_train_pca = pca.fit_transform(X_train)
X_test_pca = pca.transform(X_test)

# 使用KNN分类器进行训练和预测
knn = KNeighborsClassifier(n_neighbors=3)
knn.fit(X_train_pca, y_train)

# 预测并计算准确率
y_pred = knn.predict(X_test_pca)
accuracy = accuracy_score(y_test, y_pred)

print(f'Accuracy after PCA: {accuracy:.4f}')


3.数据可视化:

高维数据可视化:PCA常常用于将高维数据降到2D或3D,帮助我们理解数据的内在结构和分布,尤其适用于数据集特征较多的情况。

代码实现:PCA可视化

import seaborn as sns
import pandas as pd
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris

# 加载Iris数据集
iris = load_iris()
X = iris.data
y = iris.target
feature_names = iris.feature_names

# 标准化数据
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 使用PCA降维到2个主成分
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X_scaled)

# 将降维后的数据转换为DataFrame格式
pca_df = pd.DataFrame(X_pca, columns=['PC1', 'PC2'])
pca_df['species'] = iris.target_names[y]

# 绘制PCA后的散点图
plt.figure(figsize=(8, 6))
sns.scatterplot(data=pca_df, x='PC1', y='PC2', hue='species', palette='viridis')
plt.title('PCA of Iris Dataset')
plt.xlabel('Principal Component 1')
plt.ylabel('Principal Component 2')
plt.show()


4.图像压缩与处理:

图像降维:在计算机视觉领域,PCA可用于图像压缩或图像重建。通过降维来减少图像的存储空间,同时保留图像的主要信息。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from skimage import data, color, img_as_float

# 1. 加载图像
# 使用scikit-image中的示例图像(例如一个“月亮”图像)
image = data.astronaut()  # 你也可以使用其他的图像数据源
# 将图像转为浮点数并标准化
image = img_as_float(image)

# 展示原始图像
plt.figure(figsize=(6, 6))
plt.imshow(image)
plt.title("Original Image")
plt.axis('off')
plt.show()

# 2. 将图像展平为二维数组(每一行代表一个像素点的RGB值)
height, width, channels = image.shape
image_flattened = image.reshape(height * width, channels)

# 3. 标准化图像数据(零均值,单位方差)
scaler = StandardScaler()
image_flattened_scaled = scaler.fit_transform(image_flattened)

# 4. 应用PCA降维
n_components = 50  # 选择降维后的主成分数
pca = PCA(n_components=n_components)
image_pca = pca.fit_transform(image_flattened_scaled)

# 5. 重构图像
image_reconstructed = pca.inverse_transform(image_pca)
image_reconstructed = scaler.inverse_transform(image_reconstructed)

# 将重构后的图像转换为原始尺寸
image_reconstructed = image_reconstructed.reshape(height, width, channels)

# 6. 展示压缩后的图像和原图
plt.figure(figsize=(6, 6))
plt.imshow(image_reconstructed)
plt.title(f"Reconstructed Image with {n_components} Components")
plt.axis('off')
plt.show()

# 7. 计算压缩后的误差
# 计算原始图像和重构图像之间的差异(均方误差MSE)
error = np.mean((image - image_reconstructed) ** 2)
print(f"Reconstruction error (MSE) with {n_components} components: {error:.6f}")

# 8. 计算压缩比
compression_ratio = (height * width * channels) / (n_components * (height * width + n_components))
print(f"Compression ratio: {compression_ratio:.2f}")

# 9. 展示原图和重构图的差异
plt.figure(figsize=(6, 6))
plt.imshow(image - image_reconstructed)
plt.title("Difference between Original and Reconstructed Image")
plt.axis('off')
plt.show()


5.异常检测:

检测数据中的异常点:PCA可以揭示数据中最重要的变化模式,通过观察主成分的得分,检测出与正常模式不同的异常点。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_classification
from scipy.stats import zscore

# 生成一个示例数据集
X, _ = make_classification(n_samples=500, n_features=5, n_informative=3, random_state=42)

# 添加一些异常点
np.random.seed(42)
outliers = np.random.uniform(low=-10, high=10, size=(10, X.shape[1]))
X_with_outliers = np.vstack([X, outliers])

# 1. 数据标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X_with_outliers)

# 2. PCA降维
pca = PCA(n_components=2)  # 降到2维空间进行可视化
X_pca = pca.fit_transform(X_scaled)

# 3. 计算得分:在主成分空间中的得分
# 得分可以通过计算每个数据点的欧几里得距离来进行
distances = np.linalg.norm(X_pca, axis=1)

# 4. 设置阈值来检测异常点
# 比如,我们可以将距离大于3个标准差的数据点视为异常点
threshold = np.mean(distances) + 3 * np.std(distances)
outliers_detected = distances > threshold

# 5. 可视化结果
plt.figure(figsize=(8, 6))
plt.scatter(X_pca[:, 0], X_pca[:, 1], c='blue', label='Normal Data', s=50)
plt.scatter(X_pca[outliers_detected, 0], X_pca[outliers_detected, 1], c='red', label='Outliers', s=100, marker='x')

plt.title('PCA-based Outlier Detection')
plt.xlabel('First Principal Component')
plt.ylabel('Second Principal Component')
plt.legend()
plt.show()

# 输出被检测到的异常点的索引
outlier_indices = np.where(outliers_detected)[0]
print(f"Detected outliers at indices: {outlier_indices}")

六、总结

主成分分析(PCA)是一种强大的统计方法,广泛应用于数据降维和特征提取。其主要思想是通过将高维数据投影到一个新的坐标系中,使得新坐标系中的各个主成分(即特征向量)能够最大程度地捕捉数据的方差,从而有效降低数据的维度并保留最重要的信息。PCA的基本过程包括对数据进行标准化处理、计算数据的协方差矩阵、对协方差矩阵进行特征值分解、然后选择前几个具有最大特征值的主成分,并将原始数据投影到这些主成分上,从而实现降维。通过这一过程,PCA不仅能提高计算效率,还能帮助去除冗余特征、简化数据的结构,尤其在高维数据分析中具有显著优势。然而,PCA也有一些局限性,首先它假设数据之间的关系是线性的,因此对非线性数据的处理效果较差;其次,PCA对异常值比较敏感,可能会影响降维的结果;此外,降维后的主成分通常缺乏明确的物理意义,难以直接解释。在实际应用中,PCA被广泛用于图像处理、金融分析、基因数据分析等领域,能够帮助揭示数据的主要特征、减少噪声、提高模型的表现。


http://www.kler.cn/a/388098.html

相关文章:

  • 性能优化、安全
  • HTML之表单学习记录
  • vue el-date-picker 日期选择器禁用失效问题
  • LeetCode【0027】移除元素
  • scala的练习题
  • 计算机网络分析题
  • Redis的内存淘汰机制
  • WPF在MVVM模式下怎么实现导航功能
  • 【SpringBoot】ThreadLocal线程空间上下文使用
  • Linux:版本控制器git的简单使用+gdb/cgdb调试器的使用
  • 【国内中间件厂商排名及四大中间件对比分析】
  • MySQL 程序设计课程复习大纲
  • Spring面向切面编程
  • 第4章 分离数据和指令-Claude开发应用教程
  • 2024最新软件测试面试热点问题
  • Oh My Posh安装
  • 07 P1164 小A点菜
  • Docker在CentOS上的安装与配置
  • 初识Electron 进程通信
  • PGMP-串串01概述
  • 数据分析:微生物功能差异分析之Maaslin2
  • 5分钟科普:AI网关是什么?应用场景是什么?有没有开源的选择?
  • 【JAVA】java 企业微信信息推送
  • 8+ 典型分析场景,25+ 标杆案例,Apache Doris 和 SelectDB 精选案例集(2024版)电子版上线
  • Python酷库之旅-第三方库Pandas(204)
  • layui 文件上传前检查文件大小,后面再点上传出现重复提交的问题