当前位置: 首页 > article >正文

Scikit-learn (`sklearn`) 教程

Scikit-learn (sklearn) 教程

Scikit-learn 是 Python 中最流行的机器学习库之一,提供了丰富的机器学习算法、数据预处理工具以及模型评估方法,广泛应用于分类、回归、聚类和降维等任务。

在本教程中,我们将介绍如何使用 Scikit-learn 进行数据加载、特征处理、模型训练与评估,并展示一些常用的机器学习模型。

1. 安装 Scikit-learn

你可以使用以下命令安装 scikit-learn

pip install scikit-learn

2. Scikit-learn 的核心组件

  • 数据集:提供内置数据集和数据集加载工具。
  • 特征工程:包括特征缩放、编码、缺失值处理等。
  • 模型:提供分类、回归、聚类、降维等多种算法。
  • 模型评估:包括交叉验证、网格搜索等。

3. 数据集

Scikit-learn 提供了多种内置数据集(例如 IrisBoston),并且提供了用于加载外部数据集的工具。

3.1 加载内置数据集

例如,加载 Iris 数据集:

from sklearn.datasets import load_iris

# 加载 Iris 数据集
iris = load_iris()
print(iris.feature_names)  # 输出特征名称
print(iris.target_names)   # 输出目标类别名称

# 特征数据
X = iris.data
# 目标数据
y = iris.target

print(X.shape, y.shape)
3.2 使用 Pandas 加载 CSV 数据

你也可以使用 Pandas 加载本地 CSV 数据:

import pandas as pd

# 加载 CSV 数据
data = pd.read_csv('data.csv')

# 分离特征和目标
X = data.drop('target_column', axis=1)
y = data['target_column']

4. 数据预处理

Scikit-learn 提供了一些常用的特征预处理工具,例如标准化、归一化、标签编码等。

4.1 标准化与归一化
  • 标准化:将数据转换为均值为 0,方差为 1 的正态分布。
  • 归一化:将数据缩放到 [0, 1] 或 [-1, 1] 的范围。
from sklearn.preprocessing import StandardScaler, MinMaxScaler

# 标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 归一化
min_max_scaler = MinMaxScaler()
X_normalized = min_max_scaler.fit_transform(X)
4.2 标签编码

将分类标签转换为数字编码:

from sklearn.preprocessing import LabelEncoder

# 标签编码
label_encoder = LabelEncoder()
y_encoded = label_encoder.fit_transform(y)

5. 训练/测试集拆分

在进行模型训练前,通常需要将数据集划分为训练集和测试集。Scikit-learn 提供了 train_test_split 函数来完成这一操作。

from sklearn.model_selection import train_test_split

# 划分训练集和测试集,比例为 80:20
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

print(X_train.shape, X_test.shape)

6. 模型训练

Scikit-learn 提供了丰富的机器学习算法。常见的分类、回归和聚类算法都可以通过 fit() 方法来训练模型。

6.1 分类任务示例:K 最近邻 (KNN)

K 最近邻算法是一种经典的分类算法。以下是使用 KNN 进行分类的示例:

from sklearn.neighbors import KNeighborsClassifier

# 创建 KNN 模型
knn = KNeighborsClassifier(n_neighbors=3)

# 训练模型
knn.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = knn.predict(X_test)
6.2 回归任务示例:线性回归

对于回归任务,可以使用线性回归模型进行训练:

from sklearn.linear_model import LinearRegression

# 创建线性回归模型
lr = LinearRegression()

# 训练模型
lr.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = lr.predict(X_test)

7. 模型评估

Scikit-learn 提供了多种评估指标,用于衡量模型的性能。

7.1 分类模型评估
  • 准确率:分类模型中常用的评估指标,表示预测正确的样本占总样本的比例。
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f'Accuracy: {accuracy}')

# 分类报告
print(classification_report(y_test, y_pred))

# 混淆矩阵
print(confusion_matrix(y_test, y_pred))
7.2 回归模型评估
  • 均方误差:常用的回归模型评估指标,衡量预测值与真实值的差距。
from sklearn.metrics import mean_squared_error, r2_score

# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
print(f'Mean Squared Error: {mse}')

# R^2 分数
r2 = r2_score(y_test, y_pred)
print(f'R^2 Score: {r2}')

8. 交叉验证

交叉验证是一种常用的模型评估方法,可以更稳健地评估模型性能。Scikit-learn 提供了 cross_val_score 来实现交叉验证。

from sklearn.model_selection import cross_val_score

# 使用交叉验证评估模型性能,使用 5 折交叉验证
scores = cross_val_score(knn, X, y, cv=5)
print(f'Cross-validation scores: {scores}')
print(f'Average score: {scores.mean()}')

9. 模型调参

在实际应用中,找到最优的超参数组合非常重要。Scikit-learn 提供了 GridSearchCVRandomizedSearchCV 来进行超参数调优。

9.1 网格搜索(Grid Search)
from sklearn.model_selection import GridSearchCV

# 定义参数网格
param_grid = {
    'n_neighbors': [3, 5, 7],
    'weights': ['uniform', 'distance']
}

# 进行网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)
grid_search.fit(X_train, y_train)

# 输出最佳参数
print(f'Best parameters: {grid_search.best_params_}')
9.2 随机搜索(Randomized Search)
from sklearn.model_selection import RandomizedSearchCV

# 定义随机搜索参数
param_distributions = {
    'n_neighbors': [3, 5, 7],
    'weights': ['uniform', 'distance']
}

# 随机搜索
random_search = RandomizedSearchCV(KNeighborsClassifier(), param_distributions, cv=5, n_iter=10)
random_search.fit(X_train, y_train)

# 输出最佳参数
print(f'Best parameters: {random_search.best_params_}')

10. 管道 (Pipeline)

Pipelinescikit-learn 中的一个非常有用的工具,它将多个步骤组合在一起,形成一个工作流。通过 Pipeline,我们可以将数据预处理和模型训练整合为一个过程,方便进行交叉验证和超参数调优。

10.1 创建管道
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVC

# 创建一个包含标准化和 SVM 分类器的管道
pipeline = Pipeline([
    ('scaler', StandardScaler()),  # 数据标准化
    ('svc', SVC())                 # 支持向量机分类器
])

# 使用管道进行训练和预测
pipeline.fit(X_train, y_train)
y_pred = pipeline.predict(X_test)

# 评估模型
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')
10.2 在管道中使用网格搜索

你可以在 Pipeline 中使用超参数调优,调整管道中的每个步骤的参数。

from sklearn.model_selection import GridSearchCV

# 定义参数网格
param_grid = {
    'svc__C': [0.1, 1, 10],
    'svc__kernel': ['linear', 'rbf']
}

# 使用管道进行网格搜索
grid_search = GridSearchCV(pipeline, param_grid, cv=5)
grid_search.fit(X_train, y_train)

# 输出最佳参数
print(f'Best parameters: {grid_search.best_params_}')

# 使用最佳模型进行预测
best_pipeline = grid_search.best_estimator_
y_pred = best_pipeline.predict(X_test)

# 评估结果
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')

11. 特征选择

在机器学习中,特征选择是非常重要的一步。通过去除无用或冗余的特征,可以提升模型的性能。scikit-learn 提供了多种特征选择的方法。

11.1 使用 SelectKBest 进行特征选择

SelectKBest 是一种常见的特征选择方法,它根据某种评分标准(如 f_classif)选择前 K 个最重要的特征。

from sklearn.feature_selection import SelectKBest, f_classif

# 使用 SelectKBest 选择前 2 个最重要的特征
selector = SelectKBest(f_classif, k=2)
X_new = selector.fit_transform(X_train, y_train)

# 打印被选择的特征
print(X_new.shape)
11.2 在管道中使用特征选择

你可以将特征选择步骤集成到 Pipeline 中,以便与其他步骤(如标准化和模型训练)一起进行处理。

from sklearn.feature_selection import SelectKBest
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVC
from sklearn.pipeline import Pipeline

# 创建一个包含特征选择、标准化和 SVM 分类器的管道
pipeline = Pipeline([
    ('select', SelectKBest(f_classif, k=2)),  # 特征选择
    ('scaler', StandardScaler()),             # 标准化
    ('svc', SVC())                            # 支持向量机
])

# 训练模型
pipeline.fit(X_train, y_train)

# 预测结果
y_pred = pipeline.predict(X_test)
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')

12. 聚类

scikit-learn 提供了多种聚类算法。聚类是无监督学习中的一种任务,目标是将数据划分为多个组(簇),其中同一簇的对象相似度较高。

12.1 K-means 聚类

K-means 是一种经典的聚类算法,它通过最小化簇内的方差将数据划分为 K 个簇。

from sklearn.cluster import KMeans

# 创建 K-means 模型,指定 3 个簇
kmeans = KMeans(n_clusters=3, random_state=42)

# 训练模型
kmeans.fit(X)

# 预测簇标签
y_kmeans = kmeans.predict(X)

# 打印每个样本所属的簇
print(y_kmeans)
12.2 层次聚类 (Agglomerative Clustering)

层次聚类通过不断合并最近的簇来构建层次树结构。你可以指定合并停止的簇数量。

from sklearn.cluster import AgglomerativeClustering

# 创建层次聚类模型
agg_clustering = AgglomerativeClustering(n_clusters=3)

# 训练模型
y_agg = agg_clustering.fit_predict(X)

# 打印簇标签
print(y_agg)

13. 降维

降维技术用于将高维数据映射到低维空间,减少维度,同时尽可能保留原始数据的信息量。常见的降维方法有主成分分析(PCA)和线性判别分析(LDA)。

13.1 PCA 降维

主成分分析(PCA)是一种线性降维技术,找到数据的主要方向,最大限度地保留数据的方差。

from sklearn.decomposition import PCA

# 创建 PCA 模型,指定主成分数量为 2
pca = PCA(n_components=2)

# 使用 PCA 进行降维
X_pca = pca.fit_transform(X)

# 打印降维后的数据形状
print(X_pca.shape)
13.2 LDA 降维

线性判别分析(LDA)是一种监督学习的降维方法,通常用于分类任务。

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA

# 创建 LDA 模型
lda = LDA(n_components=2)

# 使用 LDA 进行降维
X_lda = lda.fit_transform(X, y)

# 打印降维后的数据形状
print(X_lda.shape)

14. 模型持久化

在完成模型训练后,你可以使用 joblibpickle 将模型保存为文件,之后可以加载该模型进行预测,而无需重新训练。

14.1 保存模型
import joblib

# 保存模型到文件
joblib.dump(knn, 'knn_model.pkl')
14.2 加载模型
# 从文件中加载模型
loaded_model = joblib.load('knn_model.pkl')

# 使用加载的模型进行预测
y_pred = loaded_model.predict(X_test)
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')

15. 自定义估计器

除了使用 scikit-learn 提供的标准模型外,你还可以通过继承 BaseEstimatorClassifierMixin 自定义自己的估计器。

from sklearn.base import BaseEstimator, ClassifierMixin
import numpy as np

class CustomClassifier(BaseEstimator, ClassifierMixin):
    def __init__(self, threshold=0.5):
        self.threshold = threshold

    def fit(self, X, y):
        self.mean_ = np.mean(X, axis=0)
        return self

    def predict(self, X):
        return (np.mean(X, axis=1) > self.threshold).astype(int)

# 创建并使用自定义分类器
clf = CustomClassifier(threshold=0.6)
clf.fit(X_train, y_train)
y_pred = clf.predict(X_test)
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')

16. 完整示例:分类任务

下面是一个完整的例子,展示了如何加载数据、进行预处理、构建管道、训练模型、进行网格搜索、评估模型性能,并将模型保存。

import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score, classification_report
from sklearn.pipeline import Pipeline
import joblib

# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target

# 数据划分
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 构建管道
pipeline = Pipeline([
    ('scaler', StandardScaler()),  # 标准化
    ('knn', KNeighborsClassifier())  # KNN 分类器
])

# 定义参数网格
param_grid = {
    'knn__n_neighbors': [3, 5, 7],
    'knn__weights': ['uniform', 'distance']
}

# 网格搜索
grid_search = GridSearchCV(pipeline, param_grid, cv=5)
grid_search.fit(X

_train, y_train)

# 最佳模型
print(f'Best parameters: {grid_search.best_params_}')

# 在测试集上进行预测
y_pred = grid_search.predict(X_test)

# 评估模型
print(f'Accuracy: {accuracy_score(y_test, y_pred)}')
print(classification_report(y_test, y_pred))

# 保存最佳模型
joblib.dump(grid_search.best_estimator_, 'best_knn_model.pkl')

17. 总结

通过本教程,你已经了解了 Scikit-learn 的主要功能和使用方法,包括数据预处理、模型训练与评估、超参数调优、管道、特征选择、聚类、降维等。Scikit-learn 提供了强大且易用的 API,适合从简单的机器学习任务到更复杂的工作流构建。


http://www.kler.cn/a/313657.html

相关文章:

  • 《ElementPlus 与 ElementUI 差异集合》Icon 图标 More 差异说明
  • 在Java中使用ModelMapper简化Shapefile属性转JavaBean实战
  • AI 写作(五)核心技术之文本摘要:分类与应用(5/10)
  • LeetCode【0031】下一个排列
  • 数据结构-集合
  • IEC60870-5-104 协议源码架构详细分析
  • 二级C语言2024-3易错题
  • 小叶OJ 2716: 过河问题 ← 贪心算法
  • Liveweb视频汇聚平台支持GB28181转RTMP、HLS、RTSP、FLV格式播放方案
  • nodejs 013:Prect 样式复用(multiple classes)例子
  • yolo自动化项目实例解析(二)ui页面整理 1.78
  • macOS Sequoia 正式版(24A335)黑苹果/Mac/虚拟机系统镜像
  • 2024华为杯E题:高速公路应急车道紧急启用模型
  • Broadcast:Android中实现组件及进程间通信
  • 使用 Anaconda 环境在Jupyter和PyCharm 中进行开发
  • 【计算机网络】网络层协议解析
  • NVM(node.js版本工具)的使用
  • 虚拟机ens33网卡不显示inet地址(已设置NOBOOT为yes)
  • 蓝桥杯2024省C
  • IDEA 2024.3 EAP新特征早览!
  • 音视频入门基础:AAC专题(4)——ADTS格式的AAC裸流实例分析
  • 微信小程序05-常用API下
  • EmguCV学习笔记 VB.Net 12.2 WeChatQRCode
  • 【FPGA】编程方式
  • Django学习实战篇六(适合略有基础的新手小白学习)(从0开发项目)
  • AUTOSAR_EXP_ARAComAPI的5章笔记(7)