当前位置: 首页 > article >正文

【LGBM】LightGBM sklearn API超参数解释与使用方法(优化)

        接下来我们进一步解释LGBM的sklearn API中各评估器中的超参数及使用方法。

  在LGBM的sklearn API中,总共包含四个模型类(也就是四个评估器),分别是lightgbm.LGBMModel、LGBMClassifier 和 LGBMRegressor 以及LGBMRanker:

LGBMModel

  LGBMModel 是 LightGBM 的基础模型类,它提供了所有 LightGBM 模型的通用接口。虽然它本身不是为特定任务设计的,但它包含了所有基本的训练和预测方法。

主要方法:
  • fit(X, y, sample_weight=None, init_score=None, eval_set=None, eval_names=None, eval_sample_weight=None, eval_class_weight=None, eval_init_score=None, eval_metric=None, early_stopping_rounds=None, verbose=True, feature_name='auto', categorical_feature='auto', callbacks=None, init_model=None)
  • predict(X, raw_score=False, start_iteration=0, num_iteration=None, pred_leaf=False, pred_contrib=False, **kwargs)
  • feature_importances_:返回特征的重要性评分。

LGBMClassifier

LGBMClassifier 是用于分类任务的模型类,适用于二分类和多分类问题。

主要超参数:
  • boosting_type='gbdt':提升类型,可选值有 'gbdt' (默认), 'dart', 'goss', 'rf'。
  • num_leaves=31:每棵树的最大叶子数。
  • max_depth=-1:树的最大深度,负值表示不限制。
  • learning_rate=0.1:学习率,控制每次迭代的学习步长。
  • n_estimators=100:提升树的数量。
  • subsample_for_bin=200000:构造直方图时使用的样本数量。
  • min_split_gain=0.0:分裂节点所需的最小增益。
  • min_child_weight=0.001:叶子节点的最小权重。
  • min_child_samples=20:叶子节点的最小样本数。
  • subsample=1.0:每棵树训练时使用的样本比例。
  • colsample_bytree=1.0:每棵树训练时使用的特征比例。
  • reg_alpha=0.0:L1 正则化系数。
  • reg_lambda=0.0:L2 正则化系数。
  • random_state=None:随机种子,用于复现结果。
  • n_jobs=-1:并行任务数,-1 表示使用所有可用的 CPU 核心。
  • silent=True:是否静默模式,不显示训练过程中的信息。
  • importance_type='split':特征重要性的计算方式,可选值有 'split' 和 'gain'。
示例代码:
from lightgbm import LGBMClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# 加载数据集
data = load_iris()
X, y = data.data, data.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建 LGBMClassifier 模型
model = LGBMClassifier(
    n_estimators=100,
    learning_rate=0.1,
    max_depth=5,
    num_leaves=31,
    subsample=0.8,
    colsample_bytree=0.8,
    reg_alpha=0.1,
    reg_lambda=0.1,
    random_state=42
)

# 训练模型
model.fit(X_train, y_train)

# 预测
predictions = model.predict(X_test)

# 获取特征重要性
feature_importances = model.feature_importances_
print("Feature importances:", feature_importances)

LGBMRegressor

LGBMRegressor 是用于回归任务的模型类,适用于预测连续值目标变量的问题。

主要超参数:
  • boosting_type='gbdt':提升类型,可选值有 'gbdt' (默认), 'dart', 'goss', 'rf'。
  • num_leaves=31:每棵树的最大叶子数。
  • max_depth=-1:树的最大深度,负值表示不限制。
  • learning_rate=0.1:学习率,控制每次迭代的学习步长。
  • n_estimators=100:提升树的数量。
  • subsample_for_bin=200000:构造直方图时使用的样本数量。
  • min_split_gain=0.0:分裂节点所需的最小增益。
  • min_child_weight=0.001:叶子节点的最小权重。
  • min_child_samples=20:叶子节点的最小样本数。
  • subsample=1.0:每棵树训练时使用的样本比例。
  • colsample_bytree=1.0:每棵树训练时使用的特征比例。
  • reg_alpha=0.0:L1 正则化系数。
  • reg_lambda=0.0:L2 正则化系数。
  • random_state=None:随机种子,用于复现结果。
  • n_jobs=-1:并行任务数,-1 表示使用所有可用的 CPU 核心。
  • silent=True:是否静默模式,不显示训练过程中的信息。
  • importance_type='split':特征重要性的计算方式,可选值有 'split' 和 'gain'。
示例代码:
from lightgbm import LGBMRegressor
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split

# 加载数据集
data = load_boston()
X, y = data.data, data.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建 LGBMRegressor 模型
model = LGBMRegressor(
    n_estimators=100,
    learning_rate=0.1,
    max_depth=5,
    num_leaves=31,
    subsample=0.8,
    colsample_bytree=0.8,
    reg_alpha=0.1,
    reg_lambda=0.1,
    random_state=42
)

# 训练模型
model.fit(X_train, y_train)

# 预测
predictions = model.predict(X_test)

# 获取特征重要性
feature_importances = model.feature_importances_
print("Feature importances:", feature_importances)

LGBMRanker

LGBMRanker 是用于排序任务的模型类,适用于需要对一组项目进行排序的问题,常见于信息检索和推荐系统中。

主要超参数:
  • boosting_type='gbdt':提升类型,可选值有 'gbdt' (默认), 'dart', 'goss', 'rf'。
  • num_leaves=31:每棵树的最大叶子数。
  • max_depth=-1:树的最大深度,负值表示不限制。
  • learning_rate=0.1:学习率,控制每次迭代的学习步长。
  • n_estimators=100:提升树的数量。
  • subsample_for_bin=200000:构造直方图时使用的样本数量。
  • min_split_gain=0.0:分裂节点所需的最小增益。
  • min_child_weight=0.001:叶子节点的最小权重。
  • min_child_samples=20:叶子节点的最小样本数。
  • subsample=1.0:每棵树训练时使用的样本比例。
  • colsample_bytree=1.0:每棵树训练时使用的特征比例。
  • reg_alpha=0.0:L1 正则化系数。
  • reg_lambda=0.0:L2 正则化系数。
  • random_state=None:随机种子,用于复现结果。
  • n_jobs=-1:并行任务数,-1 表示使用所有可用的 CPU 核心。
  • silent=True:是否静默模式,不显示训练过程中的信息。
  • importance_type='split':特征重要性的计算方式,可选值有 'split' 和 'gain'。
特殊参数:
  • group:每个查询组的大小,必须在 fit 方法中提供。
  • eval_at=[1, 2, 3]:评估排序性能时使用的排名位置。
示例代码:
from lightgbm import LGBMRanker
import numpy as np

# 生成示例数据
X = np.random.rand(100, 10)  # 100 个样本,每个样本有 10 个特征
y = np.random.randint(0, 5, 100)  # 目标变量,假设是 0 到 4 的评分
group = [10] * 10  # 每个查询组有 10 个样本

# 创建 LGBMRanker 模型
model = LGBMRanker(
    n_estimators=100,
    learning_rate=0.1,
    max_depth=5,
    num_leaves=31,
    subsample=0.8,
    colsample_bytree=0.8,
    reg_alpha=0.1,
    reg_lambda=0.1,
    random_state=42
)

# 训练模型
model.fit(X, y, group=group)

# 预测
predictions = model.predict(X)

# 获取特征重要性
feature_importances = model.feature_importances_
print("Feature importances:", feature_importances)

总结

  • LGBMModel:基础模型类,通常不直接使用。
  • LGBMClassifier:用于分类任务,支持二分类和多分类。
  • LGBMRegressor:用于回归任务,预测连续值目标变量。
  • LGBMRanker:用于排序任务,适用于信息检索和推荐系统。

LGBMClassifier调参

1. 数据集特性分析

在开始调参之前,先对数据集进行一些基本的分析,了解数据的特性和潜在的问题:

  • 数据规模:数据集的大小会影响模型的选择和参数设置。大规模数据集可能需要更多的树(更大的 n_estimators)和更深的树(更大的 max_depth)。
  • 特征数量:特征数量较多时,可以考虑减少每棵树使用的特征比例(减小 colsample_bytree)。
  • 类别不平衡:对于分类问题,如果类别不平衡,可以调整 is_unbalance 或 scale_pos_weight 参数。
  • 噪声和异常值:数据中存在大量噪声或异常值时,可以增加正则化参数(如 reg_alpha 和 reg_lambda)来减少过拟合。

2. 基本参数设置

通用参数:
  • n_estimators:提升树的数量。初始值可以设为 100,然后根据模型性能逐步增加或减少。
  • learning_rate:学习率。初始值可以设为 0.1,如果模型过拟合,可以尝试降低学习率。
  • max_depth:树的最大深度。初始值可以设为 5 或 6,然后根据模型性能进行调整。
  • num_leaves:每棵树的最大叶子数。初始值可以设为 31,然后根据模型性能进行调整。
  • min_child_samples:叶子节点的最小样本数。初始值可以设为 20,如果数据集中有少量样本,可以适当减少这个值。
正则化参数:
  • reg_alpha:L1 正则化系数。初始值可以设为 0,如果模型过拟合,可以尝试增加这个值。
  • reg_lambda:L2 正则化系数。初始值可以设为 0,如果模型过拟合,可以尝试增加这个值。
子采样参数:
  • subsample:每棵树训练时使用的样本比例。初始值可以设为 1.0,如果数据集较大,可以尝试减小这个值(例如 0.8)。
  • colsample_bytree:每棵树训练时使用的特征比例。初始值可以设为 1.0,如果特征数量较多,可以尝试减小这个值(例如 0.8)。
特定任务:
  • 类别不平衡:如果数据集中类别不平衡,可以使用 class_weight='balanced' 或者手动设置 scale_pos_weight
  • 多分类:对于多分类任务,可以尝试增加 n_estimators 和 max_depth,因为多分类任务通常需要更复杂的模型。

3. 调参策略

交叉验证

使用交叉验证来评估模型的性能,避免过拟合。scikit-learn 提供了 GridSearchCVRandomizedSearchCV,可以帮助自动寻找最优参数组合。

Grid Search

通过网格搜索(Grid Search)尝试所有可能的参数组合,找到最优的参数设置。

from sklearn.model_selection import GridSearchCV
from lightgbm import LGBMClassifier

# 定义参数网格
param_grid = {
    'n_estimators': [100, 200, 300],
    'learning_rate': [0.01, 0.1, 0.2],
    'max_depth': [3, 5, 7],
    'num_leaves': [15, 31, 63],
    'min_child_samples': [10, 20, 30],
    'subsample': [0.8, 1.0],
    'colsample_bytree': [0.8, 1.0],
    'reg_alpha': [0, 0.1, 0.5],
    'reg_lambda': [0, 0.1, 0.5]
}

# 创建 LGBMClassifier 模型
model = LGBMClassifier(random_state=42)

# 创建 GridSearchCV 对象
grid_search = GridSearchCV(model, param_grid, cv=5, scoring='accuracy', n_jobs=-1)

# 训练模型
grid_search.fit(X_train, y_train)

# 输出最优参数
print("Best parameters found: ", grid_search.best_params_)
Randomized Search

随机搜索(Randomized Search)通过随机采样参数空间,寻找最优参数组合。相比于网格搜索,随机搜索在高维参数空间中更加高效。

from sklearn.model_selection import RandomizedSearchCV
from lightgbm import LGBMClassifier
from scipy.stats import randint, uniform

# 定义参数分布
param_dist = {
    'n_estimators': randint(100, 500),
    'learning_rate': uniform(0.01, 0.2),
    'max_depth': randint(3, 10),
    'num_leaves': randint(15, 63),
    'min_child_samples': randint(10, 30),
    'subsample': uniform(0.7, 0.3),
    'colsample_bytree': uniform(0.7, 0.3),
    'reg_alpha': uniform(0, 0.5),
    'reg_lambda': uniform(0, 0.5)
}

# 创建 LGBMClassifier 模型
model = LGBMClassifier(random_state=42)

# 创建 RandomizedSearchCV 对象
random_search = RandomizedSearchCV(model, param_distributions=param_dist, n_iter=100, cv=5, scoring='accuracy', n_jobs=-1, random_state=42)

# 训练模型
random_search.fit(X_train, y_train)

# 输出最优参数
print("Best parameters found: ", random_search.best_params_)


http://www.kler.cn/a/385635.html

相关文章:

  • Elasticsearch中什么是倒排索引?
  • 模型压缩相关技术概念澄清(量化/剪枝/知识蒸馏)
  • 阿里公告:停止 EasyExcel 更新与维护
  • [面试]Mysql的锁机制
  • ubuntu 22.04 如何调整进程启动后能打开的文件数限制
  • C++ 中的 JSON 序列化和反序列化:结构体与枚举类型的处理
  • PICO+Unity MR空间网格
  • GPT对NLP的冲击
  • Multi Agents协作机制设计及实践
  • 下载mysql的jar,添加至jmeter中,编写jdbc协议脚本1106
  • 详解Windows 11 上 CUDA 与 PyTorch 版本的兼容性
  • 内网通过公网地址访问内网服务器的设置方法
  • 前端零基础学习Day-Seven
  • Excel(图例)中使用上标下标
  • MQ的基础知识
  • 带webui的免费SSL证书管理工具
  • Docker + Python
  • 开源 - Ideal库 - 常用时间转换扩展方法(二)
  • Monkey测试
  • 重学SpringBoot3-整合 Elasticsearch 8.x (三)使用Repository
  • 知识中台赋能法律咨询服务:八大核心优势
  • OCC 拟合的平面转换为有界平面
  • AI-Prompt、RAG、微调还是重新训练?选择正确的生成式AI的使用方法
  • Jmeter的安装和使用
  • qt QFileDialog详解
  • 负载均衡式在线oj项目开发文档(个人项目)