机器学习day3
自定义数据集使用框架的线性回归方法对其进行拟合
import matplotlib.pyplot as plt
import torch
import numpy as np
# 1.散点输入
# 1、散点输入
# 定义输入数据
data = [[-0.5, 7.7], [1.8, 98.5], [0.9, 57.8], [0.4, 39.2], [-1.4, -15.7], [-1.4, -37.3], [-1.8, -49.1], [1.5, 75.6], [0.4, 34.0], [0.8, 62.3]]
# 转换为 NumPy 数组
data = np.array(data)
# 提取 x_data 和 y_data
x_data = data[:, 0]
y_data = data[:, 1]
#将x_data 和y_data 转化成tensor
x_train=torch.tensor(x_data,dtype=torch.float32)
y_train=torch.tensor(y_data,dtype=torch.float32)
print(x_train)
# 2.定义前向模型
import torch.nn as nn
#定义损失
criterion=nn.MSELoss()
# 方案4
# 最常用的网络结构
# 直接重写继承nn.Module
class LinearModel(nn.Module):
#初始化
def __init__(self):
super(LinearModel,self).__init__()
#定义一个nn.ModuleList
self.layers=nn.Linear(1,1)
#前向传播
def forward(self, x):
x=self.layers(x)
return x
#初始化一下模型,返回模型对象
model=LinearModel()
#优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
#4.开始迭代
epoches =500
for n in range(1,epoches+1):
#现在x_train 相当于10个样本,但是现在维度,添加一个维度
#10x1 变成样本 x 维度形式
y_prd=model(x_train.unsqueeze(1))
#计算损失
#y_prd在前面,y_true 是后面
loss=criterion(y_prd.squeeze(1),y_train)
#梯度更新
#清空之前存储在优化器中的梯度
optimizer.zero_grad()
#损失函数对模型参数的梯度
loss.backward()
#根据优化算法更新参数
optimizer.step()
# 5、显示频率设置
if n % 10 == 0 or n == 1:
print(f"epoches:{n},loss:{loss}")
x_np = x_train.numpy()
y_np = y_train.numpy()
y_pred_np = model(x_train.unsqueeze(1)).detach().numpy()
# 绘制数据点和拟合直线
plt.scatter(x_np, y_np, color='blue', label='Data Points') # 原始数据点
plt.plot(x_np, y_pred_np, color='red', label='Fitted Line') # 拟合直线
plt.xlabel('x')
plt.ylabel('y')
plt.title('Linear Regression Fit (PyTorch)')
plt.legend()
plt.show()
结果展示