当前位置: 首页 > article >正文

使用SVD(奇异值分解)进行降维的奇妙之旅

在数据分析和机器学习的广阔天地中,降维技术占据着举足轻重的地位。当我们面对高维数据时,不仅计算成本高昂,而且容易遭遇“维度灾难”,即随着维度的增加,数据的稀疏性和距离度量失效等问题愈发严重。为了克服这些挑战,各种降维技术应运而生,其中奇异值分解(Singular Value Decomposition, SVD)便是一种强大而优雅的工具。本文将带您踏上一段使用SVD进行降维的奇妙之旅。

什么是SVD?

SVD是一种在信号处理、统计学、机器学习等多个领域广泛应用的数学方法。它将一个任意形状的矩阵分解为三个特定形状的矩阵的乘积:一个正交矩阵、一个对角矩阵(其元素称为奇异值)和另一个正交矩阵的转置。这种分解方式不仅揭示了矩阵的内部结构,还为我们提供了一种有效的降维手段。

公式表示

对于任意m×n矩阵A,其SVD可以表示为:
A=UΣVT
其中,U是m×m的正交矩阵,Σ是m×n的矩形对角矩阵(非零元素为奇异值,按从大到小排列),V是n×n的正交矩阵。

SVD在降维中的应用

在降维场景下,SVD通过保留矩阵A中最重要的特征(即最大的奇异值对应的特征向量)来减少数据的维度。具体来说,我们可以通过选择Σ中最大的k个奇异值(k<min(m,n))以及它们对应的U和V中的列来近似原矩阵A,从而实现降维。

步骤概览

  1. 计算SVD:首先,对原始数据矩阵A进行SVD分解。
  2. 选择奇异值:根据实际需求选择前k个最大的奇异值。
  3. 构建降维矩阵:利用选定的奇异值及其对应的U和V中的列,构建降维后的矩阵。
  4. 解释与应用:分析降维后的数据,应用于后续的数据分析或机器学习任务中。
import numpy as np  
from scipy.linalg import svd  
  
# 假设A是你的原始数据矩阵  
A = np.random.rand(m, n)  # 示例:生成一个m行n列的随机矩阵  
  
# 计算SVD  
U, s, VT = svd(A, full_matrices=False)  # full_matrices=False表示不计算完整的U和VT  
Sigma = np.diag(s)  # 将奇异值向量s转换为对角矩阵Sigma

奇异点:

k = 5  # 假设我们想要降维到5维  
s_k = s[:k]  # 选择前k个最大的奇异值  
U_k = U[:, :k]  # 选择U中与这k个奇异值对应的列  
VT_k = VT[:k, :]  # 注意:这里实际上应该选择VT的前k行,因为VT是V的转置  
# 但由于我们通常与U一起工作来重建降维后的数据,所以VT_k在直接降维中可能不直接使用

优点与局限

  • 优点
    • 高效性:SVD提供了一种快速且有效的降维方法。
    • 保留关键信息:通过保留最大的奇异值,能够较好地保留数据的主要特征。
    • 广泛适用性:适用于各种类型的数据,无需对数据分布做过多假设。
  • 局限
    • 计算复杂度:对于非常大的矩阵,SVD的计算可能相对耗时。
    • 解释性:降维后的数据维度可能不如原始数据直观,解释起来需要一定的背景知识。

实践案例

import numpy as np  
from PIL import Image  
import matplotlib.pyplot as plt  
  
def pic_compress(k, pic_array):  
    # 计算SVD  
    u, sigma, vt = np.linalg.svd(pic_array, full_matrices=False)  
      
    # 构建压缩后的Sigma矩阵  
    sig = np.diag(sigma[:k])  
      
    # 重构压缩后的图像  
    # 注意:这里使用vt[:k, :]的转置来与u[:, :k]相乘  
    new_pic = np.dot(u[:, :k], np.dot(sig, vt[:k, :].T))  
      
    # 计算压缩后的图像大小(这里只是示例,实际节省取决于数据类型和存储方式)  
    # 假设每个元素是float64类型,每个元素占用8字节  
    original_size = pic_array.nbytes  
    compressed_size = u[:, :k].nbytes + sig.nbytes + vt[:k, :].nbytes  
    return new_pic, original_size, compressed_size  
  
# 加载图像并转换为灰度图  
img = Image.open('lufei.jpg').convert('L')  
ori_img = np.array(img)  
  
# 进行图像压缩  
k = 100  
new_img, original_size, compressed_size = pic_compress(k, ori_img)  
  
# 显示结果  
print(f"Original size: {original_size} bytes")  
print(f"Compressed size: {compressed_size} bytes")  
print(f"Compression ratio: {original_size / compressed_size:.2f}")  
  
fig, ax = plt.subplots(1, 2, figsize=(12, 6))  
ax[0].imshow(ori_img, cmap='gray')  
ax[0].set_title("Before Compression")  
ax[0].axis('off')  
  
ax[1].imshow(new_img, cmap='gray')  
ax[1].set_title("After Compression")  
ax[1].axis('off')  
  
plt.show()

注意

  • 在实际应用中,选择k的值是一个重要的步骤,它需要根据数据的特性和任务的需求来确定。
  • SVD降维特别适用于那些可以表示为矩阵形式的数据,如文本数据的TF-IDF矩阵、图像数据的像素矩阵等。
  • 除了SVD之外,还有其他降维技术,如PCA(主成分分析),它在某些情况下与SVD密切相关(特别是在数据已经中心化的情况下)。PCA是SVD在数据协方差矩阵上的应用,但它通常更直接地关注于数据的方差最大化。

http://www.kler.cn/a/293187.html

相关文章:

  • 【学习】Fine-tuning知识汇总
  • golang如何实现sse
  • 什么岗位需要学习 OpenGL ES ?说说 3.X 的新特性
  • 使用pdfjs加载多页pdf并实现打印
  • GitLab基于Drone搭建持续集成(CI/CD)
  • 【JAVA】Java基础—面向对象编程:封装—保护类的内部数据
  • STM32外设SPI(串行通信),W25Q64(8Mb)
  • 软件测试面试(平安保险)
  • 容器化技术在非结构化数据中台的部署研究
  • 父类是给java项目SpringCloud微服务 中SpringBoot解决继承父类后 maven标红
  • java下一页怎么实现的
  • 消息中间件都有哪些
  • MongoDB-副本集-Replica Sets
  • 设计模式 | 原型模式
  • 数学建模强化宝典(14)Fisher 最优分割法
  • 电脑硬盘数据丢失了怎么恢复?简单实用的硬盘数据找回的方法
  • JS生成二维码QRCode代码
  • EI会议推荐-第二届大数据与数据挖掘国际会议(BDDM 2024)
  • 地平线SuperDrive首秀:千人研发投入,出场即「比肩第一梯队」
  • C++ STL-List容器概念及应用方法详解
  • 如何优化Oracle数据库的SQL性能?
  • MySQL5.7.36之高可用架构部署-MHA-VIP漂移
  • 【无标题】一起学习LeetCode热题100道(67/100)
  • Pikachu靶场之RCE漏洞详解
  • 通义灵码助力高校开学第一课,“包”你满意,新学期加油!
  • 后端开发面经系列--快手音视频C++开发