当前位置: 首页 > article >正文

根据 GPU 型号安装指定 CUDA 版本的详细步骤(附有CUDA版本对应torch版本的表格)

根据 GPU 型号安装指定 CUDA 版本的详细步骤:

1. 确认 GPU 支持的 CUDA 版本

  • 打开命令提示符(Windows)或终端(Linux),输入以下命令:
    nvidia-smi
    
  • 查看输出中的“CUDA Version”字段,这表示当前显卡驱动支持的最高 CUDA 版本。

2. 检查pytorch 与对应cuda版本关系

PyTorch版本CUDA版本
1.2.0、1.4.0、1.5.0、1.5.1、1.6.0、1.7.0、1.7.19.2
1.0.0、1.0.1、1.1.0、1.2.010.0
1.4.0、1.5.0、1.5.1、1.6.0、1.7.0、1.7.1、1.8.110.1
1.5.0、1.5.1、1.6.0、1.7.0、1.7.1、1.8.0、1.8.1、1.8.2、1.9.0、1.9.1、1.10.0、1.10.1、1.11.0、1.12.0、1.12.110.2
1.7.0、1.7.111.0
1.8.0、1.8.1、1.8.2、1.9.0、1.9.1、1.10.0、1.10.111.1
1.8.1、1.9.0、1.9.1、1.10.0、1.10.1、1.11.0、1.12.0、1.12.111.3
1.12.0、1.12.111.6
  • 可以看到10.0,10.1,10.2,11.1,11.3的cuda版本支持的pytorch版本最多。所以查看到自己的显卡驱动支持的最高CUDA版本后,再确定下自己要复现项目的指定pytorch版本,就可以针对性的安装对应的cuda和torch了。

3. 下载并安装 CUDA Toolkit

  • 根据显卡支持的 CUDA 版本,访问 NVIDIA CUDA Toolkit Archive,选择对应版本的 CUDA Toolkit。

  • 下载完成后,双击安装包并选择自定义安装。建议不勾选“Visual Studio Integration”选项,以避免不必要的依赖。

  • 记录安装路径,例如 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.5

  • 作者使用1.7.1版本的torch,因此下载10.2的cuda版本。
    在 CUDA Toolkit 的下载页面上,“Version” 处提供的多个选项代表的是不同的操作系统版本,而不是不同的 CUDA 版本。尽管这些选项都是针对 CUDA 10.2 版本的安装程序,但它们是为了确保与不同操作系统版本的兼容性。
    在这里插入图片描述
    以下是这些选项的含义:

  • 10:针对 Windows 10 操作系统的安装程序。

  • 8.1:针对 Windows 8.1 操作系统的安装程序。

  • 7:针对 Windows 7 操作系统的安装程序。

  • Server 2019:针对 Windows Server 2019 操作系统的安装程序。

  • Server 2016:针对 Windows Server 2016 操作系统的安装程序。

  • Server 2012 R2:针对 Windows Server 2012 R2 操作系统的安装程序。

这些选项确保用户可以根据自己的操作系统选择正确的安装程序,以避免兼容性问题。例如,如果你正在使用 Windows 10,你应该选择 “10” 选项来下载适用于 Windows 10 的 CUDA Toolkit 10.2 安装程序。

选择正确的操作系统版本非常重要,因为不同的操作系统可能有不同的系统要求、驱动程序和库依赖。使用与操作系统不兼容的安装程序可能会导致安装失败或运行时错误。这里我选择win10
在这里插入图片描述
默认安装路径

  • 图为英伟达软件许可协议中给出的默认安装路径,我们使用精简方法安装的cuda就放在c盘里,记录下这个路径,后面你需要安装cudnn(深度学习框架所依赖的)就要放置在该目录下的bin,lib,include中。
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2

4. 配置环境变量

  • 精简模式下自动配置好了环境变量,自定义需要手动设置。
  • 打开“此电脑” > “系统属性” > “高级系统设置” > “环境变量”。
  • 在“系统变量”中找到 Path,添加以下路径(以 CUDA 10.2 为例):
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\bin
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\libnvvp
    
  • 确认保存后,重新打开命令提示符。

5. 验证 CUDA 安装

  • 在命令提示符中输入以下命令:
    nvcc --version
    
  • 如果返回正确的 CUDA 版本信息,则表示安装成功。

6. 安装 cuDNN(可选)

如果需要使用深度学习框架(如 TensorFlow 或 PyTorch),还需要安装与 CUDA 版本匹配的 cuDNN:

  • 访问 NVIDIA cuDNN 下载页面,选择与 CUDA 版本匹配的 cuDNN 版本。
  • 下载并解压 cuDNN 文件,将解压后的文件夹中的文件复制到 CUDA 安装路径下。
    在这里插入图片描述
    在这里插入图片描述
  • 这是压缩包下的四个文件,license不用管,你需要将上述三个bin、include、lib文件夹内容分别复制到cuda对应的文件夹里面。

在这里插入图片描述

检验cudnn安装是否成功
  • 按下win + R进入命令行界面
  • 按下cd C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\extras\demo_suite 进入该文件夹下
    在这里插入图片描述
  • 执行bandwidetest.exe,如果出现Result = PASS,则表示安装成功
  • 在这里插入图片描述

注意事项

  1. 驱动版本兼容性:CUDA 版本需要与显卡驱动版本兼容。例如,CUDA 12.x 需要驱动版本 ≥535.54。
  2. 深度学习框架兼容性:确保安装的 CUDA 版本与你使用的深度学习框架(如 TensorFlow 或 PyTorch)兼容。
  3. 环境变量:如果安装过程中未自动配置环境变量,需要手动添加。

通过以上步骤,你可以根据 GPU 型号安装合适的 CUDA 版本,并确保其正常工作。


补录
打开任意python编辑器输入下方代码,或者进入命令行界面

import torch
print(torch.cuda.is_available())

在这里插入图片描述
返回True,就证明可以使用cuda了。

pip install torch==2.1.0+cu121 torchvision==0.16.0+cu121 torchaudio==2.1.0 -i https://pypi.tuna.tsinghua.edu.cn/simple --extra-index-url https://download.pytorch.org/whl/cu121

我使用临时清华源安装torch,还是很慢下载了好几个小时。没了解具体什么情况,总是还是可以用了。你可以从torch官网上找到安装你需要torch版本命令,然后用kimi模型转换成pip命令,要求改成使用临时清华源安装的pip命令就好。


http://www.kler.cn/a/582703.html

相关文章:

  • 神经网络探秘:原理、架构与实战案例
  • 智能对话小程序功能优化day1-登录鉴权
  • 第2章、WPF窗体及其属性
  • 【AI大模型】LLM训练deepseek如何识别视频
  • VUE3的数据绑定,计算属性,监听
  • 【亲测有效】Electron打包的应用不支持mac os 10.11问题,Electron在mac os 10.11无法安装问题
  • 面试基础--高并发高可用架构深度实践:降级熔断(Hystrix vs Sentinel)核心原理与源码解析
  • 【Linux】线程池、单例模式、死锁
  • 操作系统高频面试题
  • 仅仅使用pytorch来手撕transformer架构(3):编码器模块和编码器类的实现和向前传播
  • bug修改模板(日志)
  • 生成对抗网络(GAN)原理与应用
  • llama源码学习·model.py[2]SwiGLU激活函数
  • docker部署jenkins,安装使用一条龙教程
  • Chrome 扩展开发 API实战:Extension(五)
  • 基于javaweb的SpringBoot+MyBatis实验室管理系统设计和实现(源码+文档+部署讲解)
  • SSH 安全致命漏洞:渗透路径与防御策略
  • Java 实现 WebSocket 客户端
  • 麒麟操作系统和统信的区别,上面一般用什么OFFICE,excel软件?
  • git subtree更新子仓库的方式