当前位置: 首页 > article >正文

使用GPU加速及配置

配置CUDA

英伟达

https://developer.nvidia.com/cuda-downloads

Python

python要求3.8.x版本以上

python下载

https://www.python.org/getit/

使用pytorch

查询地址:

https://pytorch.org/index.html

给出建议:

在这里插入图片描述

可以直接

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

shell中会报出版本信息,根据版本信息查找whl文件,手动下载

实在太慢,可以手动下载地址,建议使用迅雷下载

查询地址

https://download.pytorch.org/whl/torch/

安装

pip install path/文件名.whl

查看是否成功


import torch

print("PyTorch 版本:", torch.__version__)

if torch.cuda.is_available():
    print("CUDA 可用!")
    print("CUDA 版本:", torch.version.cuda)
    print("GPU 设备名称:", torch.cuda.get_device_name(0))
else:
    print("CUDA 不可用。")

# 创建一个张量
tensor = torch.tensor([1, 2, 3], dtype=torch.float32)

# 获取当前设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

# 将张量移动到 GPU 上
tensor_gpu = tensor.to(device)

print("张量已移动到设备:", tensor_gpu.device)
print("张量内容:", tensor_gpu)

# 创建两个张量,并将它们移动到GPU上
a = torch.tensor([[1, 2], [3, 4]], dtype=torch.float32).to(device)
b = torch.tensor([[5, 6], [7, 8]], dtype=torch.float32).to(device)

# 矩阵乘法
matrix_product = torch.matmul(a, b)

# 将结果移回CPU打印
print("矩阵乘法的结果:")
print(matrix_product.cpu())

配置完成!!!


http://www.kler.cn/a/291662.html

相关文章:

  • 如何优雅的关闭GoWeb服务器
  • day12
  • 杂七杂八的网络安全知识
  • APM32F411使用IIS外设驱动es8388实现自录自播
  • 阿里云百炼大模型生成贪吃蛇小游戏
  • 使用Python实现量子通信模拟:探索安全通信的未来
  • UNION和UNION ALL的区别
  • 假如你是HR,你怎么招「游戏策划」?
  • 创建一个Oracle版本的JDK的Docker镜像
  • taro ui 小程序at-calendar日历组件自定义样式+选择范围日历崩溃处理
  • PyTorch常用库函数:torch.acos()的详解实战使用
  • 世界时钟怎么设置?一键设置多个世界时钟 多个地区时间
  • 向量和矩阵学习笔记
  • vue3 VueUse useElementVisibility 来监听某一个元素或者div是否在当前视口viewport中可见。
  • 坐牢第三十五天(c++)
  • 智能手机、汽车新应用,星纪魅族幸运星号”卫星即将发射
  • 如何用 Typed.js 制作炫酷的打字效果?
  • 【避坑指南】避免几个坑,OpenCV的轮廓分析速度也可以很快!
  • 【C-实践】一对一的远程通信(tcp+epoll)
  • 浅谈维度建模、数据分析模型,何为数据仓库,与数据库的区别
  • Shell脚本字符串处理(Linux篇)
  • 机器人笛卡尔空间轨迹规划原理与MATLAB实现
  • Java【操作符】
  • 如何在本地服务器部署SeaFile自托管文件共享服务结合内网穿透打造私有云盘?
  • python办公自动化:使用`Python-PPTX`创建和操作表格
  • 行测笔记_片段阅读1(中心理解)