当前位置: 首页 > article >正文

LSTM模型实现光伏发电功率的预测

关于深度实战社区

我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万+粉丝,拥有2篇国家级人工智能发明专利。

社区特色:深度实战算法创新

获取全部完整项目数据集、代码、视频教程,请进入官网:zzgcz.com。竞赛/论文/毕设项目辅导答疑,v:zzgcz_com


1. 项目简介

本项目旨在通过构建一个基于LSTM(长短期记忆网络)的深度学习模型来预测某个站点的光伏发电功率。背景数据包括站点的风速、温度、湿度、辐射强度等气象因素,以及电力传递的历史数据。通过对这些时间序列特征的学习,模型能够在给定时间窗口内对目标变量“有效功率(kW)”进行精确预测。

本项目主要分为以下几个部分:首先对数据进行预处理和特征工程,包括填补缺失值、标准化处理和序列数据构建。然后,设计一个自定义的Dataset类,并使用PyTorch的DataLoader模块实现数据加载。模型方面,选用了具有多层LSTM结构的模型架构,配合全连接层来捕捉复杂的时间序列关系。通过PyTorch的Adam优化器对均方误差(MSE)损失函数进行最小化,并使用交叉验证来评估模型的表现。在训练过程中,对模型参数进行优化,最后通过测试集对模型进行验证,并绘制预测结果与实际值的对比图。此项目适用于预测时间序列数据中的连续值,并能够为未来的光伏发电预测或其他类似场景提供借鉴。

在这里插入图片描述

2.技术创新点摘要

  1. 数据预处理策略创新:代码中使用了多种数据预处理方法,例如对原始数据进行缺失值填补、数据标准化及序列数据构造。在处理缺失值时,模型区分了不同列的处理方式:部分特征列采用零填充,而其他列使用最近邻插值法来填补缺失数据。此方法充分考虑了各列特征的实际含义和数据分布特征,保证了数据完整性和模型的学习效果。同时,针对时间序列数据特性,采用滑动窗口的方法生成特征序列(SEQ_LENGTH = 24),即利用过去24小时的特征数据来预测未来的有效功率。这种序列数据生成策略能够更好地捕捉时间序列数据中的周期性与趋势性,为模型提供更具时效性的输入。
  2. 模型设计上的改进:本项目采用了多层LSTM(Long Short-Term Memory)网络结构,结合全连接层来构建预测模型。LSTM能够有效捕捉长时间序列中的依赖关系,同时通过多层堆叠提升模型的表达能力。模型中的LSTM层设置了2层结构,并且利用了隐藏层维度(hidden_size=64)来增强模型对时间序列模式的记忆与捕捉能力。这种设置能够更好地学习复杂时间序列数据的特征,使模型在应对长时间依赖性时具有更好的性能。
  3. 多元时间序列特征融合:项目引入了多种气象因素和电力相关特征,包含了风速、温度、湿度、辐射强度等,并且在输入层采用了标准化方法,以减小不同特征量纲之间的影响。这种多元特征的结合能够帮助模型更全面地理解影响光伏发电功率的多种因素,从而提升预测精度。
  4. 自定义数据集与优化训练流程:代码中自定义了数据集(PowerDataset类)以及使用PyTorch的DataLoader模块进行批量数据加载,实现了模型的高效训练与验证。此外,模型采用了Adam优化器,并在每轮训练后进行了验证集评估,以实现最佳模型参数的选择,从而提升整体模型的收敛效果与泛化能力。

3. 数据集与预处理

  1. 数据清洗与缺失值处理:针对原始数据中的缺失值,项目采取了不同的填补策略。对于某些关键特征(如“有效功率”和“降雨量”),采用零填充方式,以表示特征值为0的情况。而其他特征(如风速、温度等)则使用最近邻插值法进行填补。这种方法能够保证数据完整性,并减少由于缺失值带来的模型性能波动。
  2. 时间序列特征处理:在预处理阶段,模型使用滑动窗口法构建了特征序列(长度为24),即每次利用过去24小时的特征数据作为模型输入,用来预测下一时间步的发电功率。这种处理方式能够帮助模型捕捉时间序列数据中的趋势、周期性以及复杂依赖关系。
  3. 特征选择与标准化:项目通过筛选,选定了多种气象特征(例如风速、湿度、辐射量等)及电力相关特征作为输入变量,排除了无关或重复的特征。在特征标准化方面,采用StandardScaler对所有特征进行标准化处理,将其转换为均值为0、标准差为1的标准正态分布。这一操作能够平衡各特征的量纲差异,有助于提升模型的收敛速度和稳定性。

4. 模型架构

模型结构:
  • 输入层:输入特征的维度为 input_size = 9(表示9个气象及电力特征)。输入张量形状为 [BatchSize,Seq_Length,Input_Size],其中 Seq_Length = 24 代表时间序列的长度。
  • LSTM层:模型包含两层LSTM层(num_layers = 2),每层的隐藏单元数量为 hidden_size = 64。每个时间步输入一个特征向量 xt,其内部运算逻辑为:
  • { f t = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) (遗忘门) i t = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) (输入门) C ~ t = tanh ⁡ ( W c ⋅ [ h t − 1 , x t ] + b c ) (候选记忆单元) C t = f t ⋅ C t − 1 + i t ⋅ C ~ t (记忆单元更新) o t = σ ( W o ⋅ [ h t − 1 , x t ] + b o ) (输出门) h t = o t ⋅ tanh ⁡ ( C t ) (当前隐藏状态) \begin{cases} f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f) \quad \text{(遗忘门)} \\ i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i) \quad \text{(输入门)} \\ \tilde{C}_t = \tanh(W_c \cdot [h_{t-1}, x_t] + b_c) \quad \text{(候选记忆单元)} \\ C_t = f_t \cdot C_{t-1} + i_t \cdot \tilde{C}_t \quad \text{(记忆单元更新)} \\ o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o) \quad \text{(输出门)} \\ h_t = o_t \cdot \tanh(C_t) \quad \text{(当前隐藏状态)} \end{cases} ft=σ(Wf[ht1,xt]+bf)(遗忘门)it=σ(Wi[ht1,xt]+bi)(输入门)C~t=tanh(Wc[ht1,xt]+bc)(候选记忆单元)Ct=ftCt1+itC~t(记忆单元更新)ot=σ(Wo[ht1,xt]+bo)(输出门)ht=ottanh(Ct)(当前隐藏状态)
  • 其中:σ 表示 sigmoid 函数,tanh 表示双曲正切函数,Wf,Wi,Wc,Wo 为权重矩阵,bf,bi,bc,bo 为偏置项,ft,it,ot 分别表示遗忘门、输入门、输出门的激活值,Ct 为当前时刻的记忆单元状态,ht 为当前时刻的隐藏状态。
  • 全连接层( Fully Connected Layer :最后一层全连接层将LSTM的隐藏状态(hidden_size = 64)映射到输出空间(output_size = 1),即单一的有效功率预测值:
  • y = W ⋅ h t + b y = W \cdot h_{t} + b y=Wht+b
  • 其中,W 是全连接层的权重矩阵,ht 为最后一个时间步的隐藏状态,b 是偏置项。
  • 模型整体结构: 输入序列([Batch Size, Seq_Length, Input_Size]) -> LSTM 层 1 -> LSTM 层 2 -> 全连接层 -> 输出([Batch Size, 1])

2. 模型的整体训练流程

  1. 数据准备:首先对原始数据进行预处理,填补缺失值,并使用滑动窗口法创建时间序列特征。然后,采用 train_test_split 将数据集划分为训练集(80%)和测试集(20%)。

  2. 数据加载与处理:使用 torch.utils.data.DatasetDataLoader 将数据划分为批量(Batch Size = 64)并封装成可迭代数据集。在训练时,训练集的数据被打乱(shuffle=True),而验证集保持原有顺序(shuffle=False)。

  3. 模型初始化与配置:模型结构包括两层LSTM和一个全连接层。设备优先使用 GPU(若可用),否则使用 CPU。损失函数选用 MSELoss(均方误差),优化器选用 Adam(学习率为 0.001)。

  4. 模型训练流程

    1. 每个 epoch 内,模型遍历训练集,执行以下步骤:

      • 将当前批次的输入数据(X_batch)和目标数据(y_batch)传入模型。
      • 计算模型输出值与真实值之间的均方误差(loss = criterion(outputs, y_batch))。
      • 反向传播误差,计算每个参数的梯度(loss.backward())。
      • 使用优化器更新模型参数(optimizer.step())。
      • 累加并记录当前批次的损失。
    2. 每个 epoch 结束后,使用验证集数据进行模型评估,并记录验证集的平均损失(val_loss)。

  5. 模型评估指标

    1. 使用均方误差(MSE)和平均绝对误差(MAE)作为模型的主要评估指标。
    2. 计算公式为: M S E = 1 N ∑ i = 1 N ( y i − y ^ i ) 2 MSE = \frac{1}{N} \sum_{i=1}^{N}(y_i - \hat{y}_i)^2 MSE=N1i=1N(yiy^i)2 M A E = 1 N ∑ i = 1 N ∣ y i − y ^ i ∣ MAE = \frac{1}{N} \sum_{i=1}^{N}|y_i - \hat{y}_i| MAE=N1i=1Nyiy^i 其中,N 是样本总数,yi 为真实值,y^i 为预测值。
  6. 结果可视化与模型性能评估:在模型训练完成后,通过绘制实际值与预测值的曲线图直观展示模型性能,并打印评估指标(MSE和MAE),以判断模型的整体效果。

5. 核心代码详细讲解

  1. 数据预处理和特征工程部分
col_set_zero = ['Active Power (kW)', 'Weather Daily Rainfall (mm)']  定义需要填充为0的列名列表
data[col_set_zero] = data[col_set_zero].fillna(0)  将指定列的缺失值填充为0
  • col_set_zero:指定需要填充为0的列名列表,这些列包括Active Power (kW)(有效功率)和Weather Daily Rainfall (mm)(日降雨量)。
  • data[col_set_zero].fillna(0):将指定列(电力功率和降雨量)中所有缺失值替换为0,以表示数据记录时的“无降雨”和“无功率输出”状态。这种处理方式能够防止模型在学习时因缺失数据而引入噪声。
for col in data.columns:
    data[col].fillna(data[col].interpolate(method='nearest'), inplace=True)  对每一列进行插值填充
  • for col in data.columns:遍历数据表中的每一列。
  • data[col].interpolate(method='nearest'):采用最近邻插值法填补缺失值,即用与缺失值位置最接近的上下数据来填充。这种方法能够保持数据的连续性,并且适用于时间序列数据的填充,能够更好地维持数据在时间维度上的趋势性。
scaler = StandardScaler()  初始化标准化工具
scaled_features = scaler.fit_transform(df[feature_cols])  对特征列进行标准化
  • scaler = StandardScaler():初始化 StandardScaler 对象。StandardScaler 是一种常用的标准化工具,将特征数据转换为均值为0、标准差为1的标准正态分布。
  • scaler.fit_transform(df[feature_cols]):对 feature_cols 中指定的特征列进行标准化处理。标准化能够消除不同量纲特征之间的差异,使模型更易于训练。
X, y = create_sequences(scaled_features, targets, SEQ_LENGTH)  创建特征序列和目标值序列
  • 该行调用了 create_sequences 函数,使用滑动窗口方法构建时间序列特征:

    • scaled_features:标准化后的特征数据。
    • targets:目标值(有效功率Active Power)。
    • SEQ_LENGTH:时间序列长度(即使用过去24个时间步的数据进行预测)。
    • X, y:分别为创建好的特征序列和对应的目标值序列。

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=False)

  • train_test_split:将创建好的特征序列和目标值按照8:2的比例分为训练集和测试集,不打乱数据顺序(shuffle=False),这在处理时间序列数据时尤为重要。
  1. 模型架构构建部分
class LSTMModel(nn.Module):def init(self, input_size, hidden_size, num_layers, output_size):super(LSTMModel, self).__init__()  调用父类的构造函数
        self.hidden_size = hidden_size  定义隐藏层大小
        self.num_layers = num_layers  定义LSTM层数
        self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True)  初始化LSTM层
        self.fc = nn.Linear(hidden_size, output_size)  初始化全连接层,将隐藏层输出映射到目标输出
  • super(LSTMModel, self).__init__():调用 nn.Module 的构造函数,以便在自定义模型中使用 PyTorch 提供的内置方法。

  • self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True):定义两层LSTM网络:

    • input_size:输入特征维度(9个特征)。
    • hidden_size:隐藏单元数量(64个神经元)。
    • num_layers:LSTM层数(2层)。
    • batch_first=True:指定输入数据格式为 [Batch Size, Seq Length, Input Size]
  • self.fc = nn.Linear(hidden_size, output_size):定义全连接层,将隐藏状态的输出(维度为 hidden_size = 64)映射到输出空间(output_size = 1,即单一预测值)。

def forward(self, x):
    h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)  初始化隐藏状态
    c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)  初始化细胞状态
    out, _ = self.lstm(x, (h0, c0))  将输入数据通过LSTM层
    out = out[:, -1, :]  取出序列中最后一个时间步的输出
    out = self.fc(out)  通过全连接层得到预测结果return out  返回最终预测值
  • h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device):初始化隐藏状态为全零张量,形状为 [LSTM层数, Batch Size, 隐藏单元数量]
  • out, _ = self.lstm(x, (h0, c0)):将输入数据 x 通过LSTM层,并得到输出 out(形状为 [Batch Size, Seq Length, Hidden Size])。
  • out = out[:, -1, :]:取出最后一个时间步的隐藏状态作为当前序列的特征表示。
  • out = self.fc(out):将LSTM的输出通过全连接层,映射到单一目标值。
  1. 模型训练与评估部分
for epoch in range(num_epochs):  遍历每一个训练轮
    model.train()  设置模型为训练模式
    epoch_loss = 0  初始化本轮的损失累积for X_batch, y_batch in train_loader:  遍历训练数据加载器中的每个批次
        X_batch = X_batch.to(device)  将特征数据移动到设备
        y_batch = y_batch.to(device)  将目标数据移动到设备
        outputs = model(X_batch)  通过模型获取预测输出
        loss = criterion(outputs, y_batch)  计算预测值与真实值之间的损失
        optimizer.zero_grad()  清零优化器的梯度
        loss.backward()  反向传播计算梯度
        optimizer.step()  更新模型参数
        epoch_loss += loss.item() * X_batch.size(0)  累加损失,乘以批量大小以得到总损失
  • model.train():将模型设置为训练模式。
  • loss = criterion(outputs, y_batch):计算当前批次的均方误差(MSELoss)损失值。
  • loss.backward():通过反向传播计算当前批次的梯度。
  • optimizer.step():使用 Adam 优化器更新模型参数。

4o

6. 模型优缺点评价

模型优点:

  1. 时间序列特征捕捉能力强:采用了两层LSTM结构,能够有效捕捉时间序列数据中的长期依赖关系,尤其在处理具有周期性和趋势性的光伏发电数据时表现出色。
  2. 多维特征输入融合:模型整合了包括风速、温度、湿度、辐射强度等多个气象特征及电力数据,使用标准化处理消除不同特征量纲间的差异,有助于模型更好地理解不同输入变量之间的关系。
  3. 优化训练流程:使用Adam优化器配合均方误差(MSE)损失函数,有效提升了模型训练的收敛速度和稳定性。此外,采用滑动窗口方法生成序列数据,使模型能够利用更长的历史数据进行预测。

模型缺点:

  1. 长序列依赖性不足:尽管LSTM能够捕捉长时间依赖关系,但随着时间序列长度的增加(如SEQ_LENGTH较大时),模型的记忆能力会下降,从而导致捕捉长期依赖信息的效果变差。
  2. 模型复杂度高:双层LSTM的隐藏状态数量较多,参数较为复杂,导致训练时间较长,对计算资源的需求较高,尤其在处理更大规模的数据集时,可能会出现效率瓶颈。
  3. 对噪声数据敏感:该模型使用零填充和插值法处理缺失值,但这两种方法可能引入噪声,尤其在数据质量较差的情况下,可能导致模型学习到不真实的模式,影响预测性能。

可能的改进方向:

  1. 引入注意力机制:可以尝试在LSTM后添加注意力层(Attention Mechanism),让模型能够更关注不同时间步的数据,从而提升对长时间序列中重要信息的捕捉能力。
  2. 增加超参数调优:通过Grid Search或Bayesian Optimization等方法,进一步优化LSTM的隐藏单元数量、层数和学习率等超参数,以提升模型性能。
  3. 数据增强与特征选择:尝试使用更多的数据增强方法(例如增加噪声、平移、时间序列数据平滑等)以及特征选择算法,筛选出对目标值影响最大的特征,从而降低数据维度,提高模型效率。

↓↓↓更多热门推荐:
基于YOLOv4和DeepSORT的车牌识别与跟踪系统
基于人工智能的实时健身训练分析系统:深蹲姿态识别与动作评估

全部项目数据集、代码、教程进入官网zzgcz.com


http://www.kler.cn/news/329168.html

相关文章:

  • 滚雪球学MySQL[2.2讲]:基本数据操作详解:插入、查询、更新与删除
  • Linux 线程同步
  • 影院管理革新:小徐的Spring Boot应用
  • java 选择排序
  • 【易社保-注册安全分析报告】
  • 【中间件】fastDFS的相关知识
  • oracle解决关联查询报invalid number问题
  • 鸿蒙NEXT开发-组件事件监听和状态管理(基于最新api12稳定版)
  • calibre-web默认左上角字体修改
  • 【分布式微服务云原生】有哪些流行的微服务架构以及各自的组件,怎么完成服务治理等。
  • Spring MVC 常用注解
  • 深度学习自编码器 - 分布式表示篇
  • 鸿蒙开发(NEXT/API 12)【状态查询与订阅】手机侧应用开发
  • 《算法岗面试宝典》重磅发布!
  • Java之方法的使用
  • 《OpenCV》—— 指纹验证
  • DAY18||530.二叉搜索树的最小绝对值差 |501.二叉搜索树中的众数| 236.二叉树的最近公共祖先
  • 车辆重识别(2021ICML改进的去噪扩散概率模型)论文阅读2024/9/29
  • CS 工作笔记:SmartEdit 里创建的是 CMS Component
  • 【Spring】深入理解控制反转-IOC
  • Linux网络操作命令与函数全面总结
  • 机器视觉工程师一直做调试,维护岗位,想转岗软件方面C#从零开始,快则三年不到,慢则一辈子不会
  • YOLO11改进 | 检测头 | 小目标遮挡物性能提升的检测头Detect_MultiSEAM【完整代码】
  • 好玩的水表电表
  • we3.0里的钱包是什么?
  • Linux——pod的控制器
  • AR 眼镜之-蓝牙电话-来电铃声与系统音效
  • PO2GO、PO2Vec论文阅读与模型复现报告
  • 【STM32开发笔记】移植AI框架TensorFlow到STM32单片机【下篇】
  • 【环保背景高管1009】2022顶刊论文数据,环保背景高管对投资的影响探究