当前位置: 首页 > article >正文

Ubuntu22.04安装深度学习的GPU环境详细教程(小白图文,显卡驱动、CUDA、cuDNN、PyTorch一步到位)

摘要:本博客详细介绍了如何在 Ubuntu 22.04 系统上安装和配置深度学习环境,包括 NVIDIA 驱动CUDA ToolkitcuDNNMinicondaPyTorch 等关键组件。文章从安装前的注意事项开始,逐步讲解了如何切换国内软件源以提升下载速度,接着讲述了系统更新基本依赖项的安装。随后,重点介绍了 NVIDIA 驱动 的自动与手动安装方法,并通过详细的步骤指导读者完成 CUDA ToolkitcuDNN下载安装验证。最后,文章演示了通过 Miniconda 创建 Python 虚拟环境,并安装深度学习框架(如 PyTorchTensorFlow),同时通过简单的代码测试确保 GPU 加速功能正常工作。整个过程旨在帮助读者顺利构建一个稳定高效的深度学习开发环境。


前言

在撰写本篇博客时,Ubuntu 24.04 已经发布,同时 NVIDIA 官方也推出了适用于该系统的 CUDA 12.6 版本。然而,经过测试后发现,很多深度学习框架与 Ubuntu 24.04 的兼容性仍然存在问题,导致在安装 PyTorch 等库时频频出错。同时,Ubuntu 系统自身的软件更新也时常出现无法解决的问题。因此,为了保证系统的稳定性和深度学习环境的兼容性,我们最终选择了使用 Ubuntu 22.04 作为服务器的操作系统。这也是目前很多云服务器的默认配置,实际使用中,确实遇到的问题少了很多。

在本教程中,我们将详细介绍如何在 Ubuntu 22.04 上安装和配置深度学习环境,包括 NVIDIA 驱动、CUDA、cuDNN 以及 PyTorch 等深度学习框架。希望这篇教程能够帮助你顺利搭建出一个稳定、高效的深度学习开发环境。

在这里插入图片描述


1. 开始安装前

在安装和配置深度学习环境之前,有一些重要的注意事项和准备工作需要了解,尤其对于刚接触 Ubuntu 的用户来说,避免因操作失误而导致系统不稳定或不可用。以下内容将详细介绍在安装过程中需要注意的要点和如何优化 Ubuntu 系统的下载速度。

1.1 安装要领和注意事项

在安装和配置深度学习环境时,有几点关键事项需要特别注意:

  1. 避免不必要的系统更新和升级:虽然保持系统更新是良好的做法,但在某些情况下,升级系统或内核可能会导致与已安装的 NVIDIA 驱动程序或 CUDA 版本不兼容,从而导致深度学习环境无法正常运行。因此,在安装深度学习环境之前,建议不要随意升级系统和内核,尤其是在一切运行正常的情况下。

  2. 主打稳定:在配置深度学习环境时,优先考虑稳定性。选择稳定版本的软件和驱动程序,避免使用最新或实验性的版本,除非确实需要那些新特性。

  3. 不要频繁更换软件源:虽然更换国内的镜像源可以加快软件包的下载速度,但频繁更换源可能导致依赖冲突或更新问题。因此,选择一个稳定且速度快的源后,尽量保持一致。

在这里插入图片描述

注意:请有此觉悟!!!如果你发现无论怎么安装显卡驱动总是出错,或者CUDA安装失败,那要么是最新版的ubuntu系统,要么就是升级了内核导致兼容不了,版本不匹配。此时如果是小白,重装原始ubuntu,或许比你自己折腾更快、更省事。事实就是,系统合适照步骤基本一步到位成功,系统不行搜一堆没用的教程,折腾死去活来也弄不好。在ubuntu中,贪新只能试坑!


1.2 切换软件源

由于 Ubuntu 默认的镜像服务器可能在国内下载速度较慢,建议切换到速度更快的国内镜像源,如阿里云或清华大学的镜像源。以下是具体的操作步骤:

  1. 打开软件源配置文件

    在 Ubuntu 中,软件源的配置文件位于 /etc/apt/sources.list 中。可以通过以下命令打开该文件:

    sudo nano /etc/apt/sources.list
    

    执行上述命令后,系统会要求输入管理员密码。输入后,你将进入 nano 编辑器,并看到当前的源配置文件内容。

    在这里插入图片描述

  2. 替换默认源

    在编辑器中,将默认的源地址替换为你想使用的镜像源。例如,如果选择使用阿里云的镜像源(也可清华源,见下面),可以将文件内容替换为以下内容:

    deb http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse
    deb http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse
    deb http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse
    deb http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse
    deb http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse
    deb-src http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse
    deb-src http://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse
    deb-src http://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse
    deb-src http://mirrors.aliyun.com/ubuntu/ focal-proposed main restricted universe multiverse
    deb-src http://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse
    

    替换完成后,编辑器中内容应类似如下界面:

    在这里插入图片描述

    注意:在测试过程中,清华源的速度似乎更快。我们可以改为使用清华源,貌似企业用的阿里云比较多,同样的方法是将上述内容替换为如下清华源的配置:

    deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
    deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
    deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse
    deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-security main restricted universe multiverse
    deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
    deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
    deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse
    deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-security main restricted universe multiverse
    

    清华源配置后的界面如下所示:

    在这里插入图片描述

  3. 保存并退出编辑器

    完成替换后,按 Ctrl + O 保存文件,然后按 Enter 确认保存。接着,按 Ctrl + X 退出编辑器。

  4. 更新软件包列表

    为了使新的软件源生效,接下来需要更新软件包列表。执行以下命令:

    sudo apt update
    

    更新过程完成后,你可以看到软件包列表已经更新,如下图所示:

    在这里插入图片描述

到这里,你已经成功地切换了 Ubuntu 的软件源,下载速度将显著提升,为后续的安装和配置过程做好了准备。


2. 更新系统列表和安装基本依赖项

在开始安装深度学习环境之前,我们需要确保系统是最新的,并安装一些必要的基本依赖项。这些步骤能够确保后续的安装过程顺利进行,同时避免由于依赖项缺失而引发的问题。

2.1 更新系统列表

首先,确保系统软件包列表是最新的,并且安装了所有可用的更新。为此,你需要执行以下命令:

sudo apt update
sudo apt upgrade -y
  • sudo apt update:更新系统的软件包列表,使其包含最新的软件包信息。
  • sudo apt upgrade -y:升级系统中已经安装的软件包。

在执行这些命令时,系统会下载并安装所有可用的更新。你可能会看到类似以下的输出:

在这里插入图片描述

2.2 安装基本依赖项

接下来,我们需要安装一些基本的构建工具。这些工具包括 gccg++make 等,它们在编译和安装某些软件包时是必须的。输入以下命令以安装这些工具:

sudo apt install build-essential gcc g++ make -y
  • build-essential:包含编译软件所需的核心工具,包括编译器、链接器等。
  • gccg++:GNU C 和 C++ 编译器。
  • make:一个控制编译过程的工具,通常用于编译从源代码生成可执行文件的过程。

安装完成后,你应该会看到类似于以下的安装输出:

在这里插入图片描述

这些基本工具的安装为后续安装 NVIDIA 驱动程序、CUDA 和其他深度学习库奠定了基础。


3. 安装 NVIDIA 驱动程序

安装 NVIDIA 驱动程序是为了确保你的 GPU 能够与操作系统正常通信,并能够被深度学习框架(如 TensorFlow、PyTorch 等)正确识别和利用。我们将使用 ubuntu-drivers 工具来自动检测和安装适合你 GPU 的驱动程序。

3.1 自动安装 NVIDIA 驱动程序

首先,打开终端并输入以下命令来自动检测并安装合适的 NVIDIA 驱动程序:

sudo ubuntu-drivers autoinstall

这个命令会自动检测你系统中安装的 GPU,并选择合适的驱动程序版本进行安装。

你可能会看到类似于以下的输出:

在这里插入图片描述

注意:有时在安装过程中可能会遇到驱动安装失败或冲突的情况。如果出现这种问题,建议首先卸载未成功安装的驱动程序,然后重新尝试安装。以下命令用于卸载之前安装失败的驱动程序(下面的535是驱动型号,你需要看一眼命令行中显示的具体型号修改代码),如果上面没有提示出错就不要卸载

sudo apt-get remove --purge nvidia-dkms-535
sudo apt-get remove --purge nvidia-driver-535

这些命令将彻底移除指定的 NVIDIA 驱动程序版本。(看清楚,别装好又卸载了

3.2 手动选择并安装驱动(可选)

这一步非必须的,如果上面那个代码的自动安装不成功,或者你需要选择特定版本的驱动程序,可以通过以下步骤进行手动安装,如果成功这里不需要再操作:

  1. 打开“软件和更新”应用。在 Ubuntu 的启动栏中找到这个应用,图标如下:

    在这里插入图片描述

  2. 进入“软件和更新”应用后,选择“附加驱动”选项卡。系统会自动检测可用的驱动程序,并显示在列表中。通常情况下,你会看到几个可供选择的 NVIDIA 驱动版本。

    选择 nvidia-driver-535-server,这里你的驱动号可能不太一样,但类似选择nvidia-diriver-xxx(不是带server后缀的),然后点击“应用更改”。

在这里插入图片描述

  1. 等待系统自动安装并更新驱动程序。安装完成后,重启系统以确保驱动程序生效

3.3 验证驱动安装

无论是用的3.1还是3.2的方法,都需重启电脑。系统重启后,打开终端并输入以下命令检查 NVIDIA 驱动程序是否正确安装:

nvidia-smi

如果驱动安装成功,你会看到类似如下的输出,显示 GPU 的详细信息,包括型号、驱动版本等:

在这里插入图片描述

注意:请记住上面的CUDA Version,我这里是12.2,后面我们安装的CUDA Toolkit需要保持一致。通过以上步骤,你的 NVIDIA 驱动程序应该已经正确安装,并准备好用于深度学习环境。


4. 安装 CUDA Toolkit

CUDA Toolkit 是 NVIDIA 提供的并行计算平台和编程模型,能够让开发者充分利用 GPU 进行高效计算。在安装 CUDA Toolkit 之前,确保已经正确安装了 NVIDIA 驱动程序。以下是详细的安装步骤。

4.1 下载并安装 CUDA Toolkit

首先,访问 NVIDIA CUDA 下载页面 并选择以下选项:

  • 操作系统:Linux
  • 架构:x86_64
  • 发行版:Ubuntu
  • 版本:选择与 Ubuntu 22.04 最接近的版本
  • 安装方式:deb (local)

按照网站上的提示逐步选择适合你自己电脑的选项。值得注意的是,虽然 CUDA 有最新版本,但为了确保与深度学习框架的兼容性,建议使用与目标框架兼容的版本。在本文中,我们选择安装 CUDA 12.2。

当进入下载页面后通常是CUDA的当前最新版本,为了保证后续的深度学习环境的库的兼容性,这里安装早前版本的CUDA,如下图所示。
在这里插入图片描述
我这里选择12.2的版本,你注意看好自己的版本。如下图所示:

在这里插入图片描述

这里按照操作系统的版本选择如下:

在这里插入图片描述

选择以上选项后,你会看到一系列安装命令。依次运行以下命令来下载和安装 CUDA:

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda-repo-ubuntu2204-12-2-local_12.2.0-535.54.03-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-2-local_12.2.0-535.54.03-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-2-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda

每个命令的具体功能如下:

  • 下载并安装 CUDA 仓库的配置文件:这有助于确保从正确的仓库下载 CUDA 相关的软件包。
  • 下载安装包并安装:下载并安装 CUDA 的本地包,确保 CUDA 版本与系统兼容。
  • 更新系统的软件包列表:确保最新的 CUDA 软件包能够被系统识别并安装。

上面的命令就是从 NVIDIA CUDA 下载页面 上复制出来的,你需要使用的是选定选项后官网给出的命令,如下图所示:

在这里插入图片描述

逐条复制官网上的命令(注意:下面的步骤你应该跟我一样逐条复制官网上的命令执行,因为版本如果不同,命令有些差别),这里我执行以上命令的效果如下:

  1. 下载 CUDA 配置文件:

    wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
    

    在这里插入图片描述

  2. 移动配置文件到指定目录:

    sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
    

    在这里插入图片描述

  3. 下载 CUDA 安装包:

    wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda-repo-ubuntu2204-12-2-local_12.2.0-535.54.03-1_amd64.deb
    

    在这里插入图片描述

  4. 安装下载的 CUDA 包:

    sudo dpkg -i cuda-repo-ubuntu2204-12-2-local_12.2.0-535.54.03-1_amd64.deb
    

    在这里插入图片描述

  5. 复制 GPG 密钥到系统的受信任密钥列表中:

    sudo cp /var/cuda-repo-ubuntu2204-12-2-local/cuda-*-keyring.gpg /usr/share/keyrings/
    

    在这里插入图片描述

  6. 更新软件包列表并安装 CUDA:

    sudo apt-get update
    sudo apt-get -y install cuda
    

    在这里插入图片描述


4.2 配置环境变量

CUDA 安装完成后,需要将 CUDA 的路径添加到系统的环境变量中。这一步可以通过修改 .bashrc 文件来实现:

echo 'export PATH=/usr/local/cuda-12.2/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.2/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

这些命令会将 CUDA 的二进制文件路径和库路径添加到系统的 PATHLD_LIBRARY_PATH 中,并立即生效。
在这里插入图片描述

4.3 验证 CUDA 安装

要验证 CUDA 是否正确安装,可以使用以下命令检查 CUDA 的版本信息:

nvcc -V

如果 CUDA 安装成功,你将看到类似如下的输出,显示 CUDA 的版本号和其他详细信息:

在这里插入图片描述

到此为止,你已经成功安装了 CUDA Toolkit 并将其配置为系统环境的一部分。接下来,我们将继续安装 cuDNN 以完成深度学习环境的配置。


5. 安装 cuDNN

cuDNN(CUDA Deep Neural Network library)是一个用于加速深度学习框架(如 TensorFlow 和 PyTorch)在 GPU 上运行的高性能库。安装 cuDNN 是深度学习环境搭建的重要一步。以下是安装和配置 cuDNN 的详细步骤。

5.1 下载 cuDNN

首先,访问 NVIDIA cuDNN 下载页面 并选择适合你 CUDA 版本的 cuDNN 下载。请注意,你需要登录 NVIDIA 开发者账户才能下载 cuDNN。

  1. 访问 cuDNN 下载页面:进入 cuDNN 下载页面,点击“Download cuDNN”,如下图所示:

    在这里插入图片描述

  2. 选择合适的 cuDNN 版本:进入下载页面后,你通常会看到当前最新版本的 cuDNN。为了保证与深度学习框架的兼容性,建议选择与已安装的 CUDA 版本相匹配的 cuDNN 版本。点击页面右下角的“Archived cuDNN Releases”,以选择一个稍早版本的 cuDNN。

    在这里插入图片描述

  3. 选择具体的 cuDNN 版本:在存档版本页面中,选择适合你 CUDA 版本的 cuDNN 版本。在本例中,我们选择的是与 CUDA 12.2 兼容的 cuDNN 8.6.0 版本。

    在这里插入图片描述

  4. 下载 Ubuntu 版本的 cuDNN:根据你使用的 Ubuntu 版本下载合适的 cuDNN 包。在本例中,我们选择了适用于 Ubuntu 22.04 的 cuDNN 安装包,“for CUDA 11.x”表示用于CUDA11的版本,这里也不建议用太新的。

    在这里插入图片描述

    在这个页面,点击“Download cuDNN”按钮开始下载。需要登录你的 NVIDIA 账户,如果还没有账户,可以点击注册。

    在这里插入图片描述

5.2 安装 cuDNN

下载完成后,使用以下步骤安装 cuDNN。

注意:找到你下载的文件位置(有可能在“下载”文件夹),我这里是在根目录,如下,可以右击选择“在终端打开”,这时终端就会打开到这个文件所在的位置,方便我们后面执行安装。

在这里插入图片描述

  1. 安装 .deb 文件:使用 dpkg 命令安装下载的 cuDNN .deb 文件。首先,进入下载文件所在的目录,然后运行以下命令(注意看你的文件名称修改,不要盲目复制):

    sudo dpkg -i cudnn-local-repo-ubuntu2204-8.6.0.163_1.0-1_amd64.deb
    

    安装过程可能会输出以下内容:

    在这里插入图片描述

  2. 添加 GPG 密钥:安装 .deb 文件后,接下来需要将 GPG 密钥添加到系统的受信任密钥列表中。这一步可以通过以下命令完成(注意看你的命令行提示的文件名称,不要盲目复制):

    sudo cp /var/cudnn-local-repo-ubuntu2204-8.6.0.163/cudnn-local-FAED14DD-keyring.gpg /usr/share/keyrings/
    

    执行这条命令后,你会看到以下输出:

    在这里插入图片描述

  3. 更新并安装 cuDNN 包:更新你的包列表并安装 cuDNN 包:

    sudo apt-get update
    sudo apt-get install libcudnn8 libcudnn8-dev libcudnn8-samples
    

    首先输入第一条的更新,如下:
    在这里插入图片描述

    然后输入第二条,系统会下载并安装必要的 cuDNN 包,输出类似以下内容:

    在这里插入图片描述

5.3 验证 cuDNN 安装

安装完成后,你可以通过以下步骤来验证 cuDNN 是否安装正确。

  1. 检查 cuDNN 版本:在终端中输入以下命令,检查 cuDNN 的版本信息:

    cat /usr/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
    

    这条命令将会输出 cuDNN 的主版本号、次版本号和补丁版本号,如下所示:

    在这里插入图片描述

    如果看到类似的输出,并且版本号与预期的版本号相符,说明 cuDNN 已经成功安装并且配置正确。具体含义如下:

    • CUDNN_MAJOR 表示 cuDNN 的主版本号(例如 8)。
    • CUDNN_MINOR 表示 cuDNN 的次版本号(例如 6)。
    • CUDNN_PATCHLEVEL 表示 cuDNN 的补丁版本号(例如 0)。

5.4 验证 CUDA 和 cuDNN 的安装

总结一下,为了确保 CUDA 和 cuDNN 已经正确安装,你可以分别检查它们的版本信息。

  1. 检查 CUDA 版本

    nvcc -V
    

    这条命令会显示 CUDA 的版本号和相关信息。

  2. 再次检查 cuDNN 版本

    cat /usr/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
    

    这将再次验证 cuDNN 的安装是否正确。

到此,CUDA 和 cuDNN 已经成功安装,并且系统已经为深度学习任务做好了准备。


6. 安装 Python 和深度学习框架

在安装完 NVIDIA 驱动、CUDA 和 cuDNN 后,接下来就是安装 Python 及相关的深度学习框架,如 TensorFlow 和 PyTorch。我们推荐使用 Anaconda 或 Miniconda 来管理 Python 环境,这样可以有效避免环境冲突,并简化包管理。以下是详细步骤。
在这里插入图片描述

6.1 安装 Miniconda

Miniconda 是一个轻量级的 Anaconda 发行版,包含 Python 和 Conda 包管理工具。通过它,你可以很方便地创建和管理独立的 Python 环境。以下是安装步骤:

  1. 下载 Miniconda 安装脚本

    首先,从 Miniconda 的官方网站下载安装脚本。你可以使用 wget 命令直接下载最新的 Miniconda 安装包:

    wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
    

    下载完成后,你会看到如下的输出:

    在这里插入图片描述

  2. 验证安装脚本(可选)

    为了确保下载的脚本没有被篡改,你可以验证脚本的哈希值。运行以下命令以计算 SHA-256 校验和:

    sha256sum Miniconda3-latest-Linux-x86_64.sh
    

    这条命令会生成一个 SHA-256 哈希值。你可以将其与 Miniconda 官方网站上提供的哈希值进行比对,以确保文件的完整性。

    在这里插入图片描述

  3. 运行安装脚本

    下载并验证完安装脚本后,运行以下命令来启动 Miniconda 的安装过程:

    bash Miniconda3-latest-Linux-x86_64.sh
    

    安装脚本将引导你完成 Miniconda 的安装,界面如下:

    在这里插入图片描述

  4. 通过安装过程

    执行安装脚本后,会提示你阅读许可协议。按 Enter 键滚动到协议末尾,然后输入 yes 同意许可协议。

    在这里插入图片描述

    接着,它会询问你安装的位置。默认安装路径是你的主目录下的 ~/miniconda3。你可以直接按 Enter 接受默认路径,或者输入自定义路径。

    在这里插入图片描述

  5. 初始化 Miniconda

    安装过程结束后,系统会询问是否将 Miniconda 初始化为默认 shell 环境。建议你选择 yes,以便 Miniconda 自动配置你的环境。

    Do you wish the installer to initialize Miniconda3 by running conda init? [yes|no] [no] >>> yes
    

    在这里插入图片描述

  6. 激活 Miniconda

    安装和初始化完成后,你可以通过以下命令激活 Miniconda 环境:

    source ~/.bashrc
    

    你也可以手动激活 Miniconda:

    conda activate
    

    在这里插入图片描述

  7. 测试安装

    为了验证 Miniconda 是否正确安装,可以使用以下命令检查 Conda 的版本:

    conda --version
    

    你应该看到 Conda 的版本号,类似于以下输出:

    在这里插入图片描述

6.2 创建 Python 环境

现在 Miniconda 已经成功安装并配置好,可以开始创建一个 Python 环境,并在其中安装深度学习框架。

  1. 创建 Python 环境

    你可以使用以下命令创建一个新的 Python 环境。例如,我们创建一个 Python 3.8 的环境并命名为 deep_learning

    conda create -n env_rec=3.10
    

在这里插入图片描述

在这里插入图片描述

这个命令将创建一个新的虚拟环境,并安装 Python 3.8 版本。安装完成后,可以通过以下命令激活该环境:

conda activate env_rec
  1. 安装深度学习框架

    在激活环境后,可以使用 pipconda 安装你所需的深度学习框架,例如 PyTorch 或 TensorFlow。以下是安装 PyTorch 的示例:

在这里插入图片描述

访问 PyTorch 官网 获取安装命令,为了兼容性避免出错,可以进到早前版本,通常如下:

在这里插入图片描述
使用pip安装的命令如下:

pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 --index-url https://download.pytorch.org/whl/cu118

你也可以选择使用 Conda 安装:

conda install pytorch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 pytorch-cuda=11.8 -c pytorch -c nvidia

在这里插入图片描述

安装完成后,可以通过启动Python,在命令行输入

python

然后依次输入以下命令验证安装是否成功:

import torch
print(torch.cuda.is_available())
print(torch.cuda.device_count())

这段代码将会返回你的 GPU 可用性和数量,如果返回 True 和正确的数量,说明 PyTorch 已经成功安装并能使用 GPU。

6.3 清理和退出虚拟环境

当你完成工作后,可以退出当前的虚拟环境:

conda deactivate

这将返回到系统的默认 Python 环境。如果你不再需要某个虚拟环境,可以使用以下命令将其删除:

conda remove -n env_rec --all

这会彻底删除名为 env_rec 的虚拟环境。


通过以上步骤,Ubuntu 系统已经配置好了深度学习的开发环境,包含了 GPU 支持的 CUDA、cuDNN、Miniconda 以及常用的深度学习框架。

在这里插入图片描述


http://www.kler.cn/a/282048.html

相关文章:

  • shell 100例
  • C语言项⽬实践-贪吃蛇
  • latex中,两个相邻的表格,怎样留一定的空白
  • AI行业动态:AGI预测、模型进化与工具革新
  • 海康大华宇视视频平台EasyCVR私有化视频平台服务器选购主要参数有哪些?
  • g++与gdb简单学习
  • Scrapy 项目部署Scrapyd
  • WHAT - 通过 react-use 源码学习 React(State 篇)
  • html+css+js网页设计 婚庆类型模版 12个页面
  • 关于复杂业务逻辑使用SQL还是java代码实现的思考
  • Golang安装与环境配置
  • 严重腰椎滑脱、无法走路,江山邦尔骨科医院机器人辅助手术为患者完美复位
  • XML 数据格式介绍及其应用
  • 1.5.1、输入输出技术
  • 【编程知识】c++中的结构体和JavaScript中的对象有啥异同
  • 树上dp+分组背包类问题
  • SpringIoc体系结构设计
  • 算法的学习笔记—连续子数组的最大和
  • 【hot100篇-python刷题记录】【杨辉三角】
  • 【Linux】进程概念
  • Andon安灯系统在汽车零部件工厂起到什么作用?
  • 小程序常用界面交互api
  • 双向链表的复杂操作、内核链表、栈
  • 操作系统:哪些函数属于系统调用?
  • Java新版主要特性|2024年最后一个版本即将到来
  • 网络编程Day9_IO多路复用 20240821