当前位置: 首页 > article >正文

Jetson Nano 三个版本(B01 4GB、Orin 4GB、Orin 8GB)本地部署Deepseek等大模型的测评

Jetson Nano三个版本(B01 GB、Orin 4GB、Orin 8GB)本地部署Deepseek等大模型的测评

    • 一、为什么要在终端设备部署大模型?
    • 二、 Jetson Nano推理大模型时计算资源占用情况分析
      • 为什么测试Jetson Nano?
      • 三款Jetson Nano芯片简介
    • 三、大模型推理实验
      • 实验1: Jetson Nano B01 4GB 推理 Deepseek-r1:1.5b
      • 实验2: Jetson Orin Nano 4GB 推理 qwen2:1.5b
      • 实验3: Jetson Orin Nano 8GB 推理 Deepseek-r1:1.5b
      • 实验4: Jetson Orin Nano 8GB 推理 Deepseek-r1:7b
    • 四、终端设备部署大模型的思考

一、为什么要在终端设备部署大模型?

一个小故事:春节的时候,有个亲戚问我:以后是不是我们可以实现人手或者一个家庭都有一个机器人?
我思考了一下,想起来前段时间我在Jetson Nano 推理大模型的实验结果。说了一下我的预测 “要实现到人手一个机器人的时候,应该会在这个时间节点:在终端设备也可以轻松推理大模型。

二、 Jetson Nano推理大模型时计算资源占用情况分析

为什么测试Jetson Nano?

第一、Jetson nano是当前AI模型推理芯片了,据我了解,现在终端推理AI模型的主要还是英伟达的Jetson orin 系列,当然还有我们国产的地平线芯片。你可以去调研汽车智驾芯片。举个例子:比亚迪的天神之眼就是英伟达的Jetson和地平线。

  • 英伟达的Jetson nano芯片搭载了NVIDIA CUDA 核心,可使用TensorRT来对模型推理加速。
  • 地平线芯片内置了贝叶斯架构的BPU加速单元,也可以实现深度学习模型的算法加速。

其次、我手头上刚好有三个系列的Jetson nano芯片,分别是Jetson Nano B01 4GB、Jetson Orin Nano 4GB、Jetson Orin Nano 8GB。

三款Jetson Nano芯片简介

Jetson Nano 是Soc,小白请注意Jetson Nano 的 GPU 并不是独立的,(可不是那种4090迷你版),而是与 CPU 共享同一块内存(即 统一内存架构,Unified Memory Architecture, UMA)。这种设计在嵌入式设备和移动设备中非常常见,目的是为了节省空间、降低功耗和成本。

  1. Jetson Nano B01 4GB 是 Maxwell 架构,里面搭载了 128 个 NVIDIA CUDA 核心,CPU是ARM A57 4核心 ,其算力只有0.5TOPS,内存是64bit LPDDR4。
  2. Jetson Orin Nano 4GB 是 Ampere 架构,里面搭载了512 NVIDIA CUDA 核心,CPU是ARM A78 6核心,其算力有20TOPS,内存是64bit LPDDR5。
  3. Jetson Orin Nano 8GB 是 Ampere 架构,里面搭载了1024 NVIDIA CUDA 核心,CPU是ARM A78 6核心,其算力有40TOPS,内存是64bit LPDDR5。

简单点来看:

设备型号架构CUDA 核心数CPU 配置算力 (TOPS)内存类型内存位宽
Jetson Nano B01 4GBMaxwell128ARM A57 4 核心0.5LPDDR464-bit
Jetson Orin Nano 4GBAmpere512ARM A78 6 核心20LPDDR564-bit
Jetson Orin Nano 8GBAmpere1024ARM A78 6 核心40LPDDR564-bit

三、大模型推理实验

很简单,可以直接安装Ollama,我在Ollama环境下拉大模型,然后直接测试。
在这里插入图片描述
在运行大模型的时候,另开一个终端运行:

jtop

即可实时查看资源的使用率。

实验1: Jetson Nano B01 4GB 推理 Deepseek-r1:1.5b

在这里插入图片描述分析:

  • GPU 使用情况
    • Jetson Nano B01 的 GPU 频率没有变化,最大频率仅为 76 MHz
  • CPU 使用情况
    • 推理任务主要依赖 4 个 CPU 核心,GPU 的贡献有限。
  • 性能表现
    • 由于 GPU 频率低且性能有限,整个推理过程非常卡顿,速度很慢。

我的体验

  • 性能表现
    • Jetson Nano B01 能够运行大模型,但非常卡顿,速度极慢。
  • 总结
    • 设备性能不足,无法流畅运行大模型,不能依赖 GPU 加速,不建议使用。纯 CPU 运行大模型的效果非常差。

实验2: Jetson Orin Nano 4GB 推理 qwen2:1.5b

在这里插入图片描述
分析

  • GPU 使用情况
    • Jetson Orin Nano 4GB 的 GPU 频率为 71%,最大频率为 624 MHz
    • 在推理大模型时,GPU 的利用率约为 32%
  • CPU 使用情况
    • 推理任务主要依赖 6 个 CPU 核心 和 GPU 协同工作。
  • 显存占用
    • 显存占用为 2 GB
  • 内存占用
    • 内存使用为 3.16/3.2 GB,几乎耗尽。
    • 运行大模型后,剩余内存不足以支持其他较大程序的运行。
  • 供电功率
    • 设备运行时的供电功率为 10W

我的体验

  • 性能表现
    • Jetson Orin Nano 4GB 运行大模型时相对流畅,性能比 Jetson Nano B01 提升显著。
  • 内存瓶颈
    • 由于内存只有 4 GB,运行大模型后,内存几乎耗尽,无法同时运行其他较大应用。
  • 总结
    • 设备能够运行1.5b大模型,但内存容量是明显的短板,限制了多任务处理能力。适合玩一玩,但内存限制较大,不适合需要多任务处理或更大模型的场景。

实验3: Jetson Orin Nano 8GB 推理 Deepseek-r1:1.5b

在这里插入图片描述
分析

  • GPU 使用情况
    • Jetson Orin Nano 8GB 的 GPU 频率为~ 6%,最大频率为 624 MHz
    • 在推理大模型时,GPU 的利用率约为 72%
  • CPU 使用情况
    • 推理任务主要依赖 6 个 CPU 核心 和 GPU 协同工作。
  • 显存占用
    • 显存占用为 1.9 GB
  • 内存占用
    • 内存使用为 3.5/7.2 GB,还有一大半内存可以使用。
  • 供电功率
    • 设备运行时的供电功率为 15W

我的体验

  • 性能表现

    • Jetson Orin Nano 8GB 运行1.5b大模型时相对流畅,性能比 Jetson Nano B01 、以及Jetson Orin Nano 4GB 都提升显著。
  • 总结

    • 设备可轻松地跑1.5b大模型,**但不一定适合需要多任务处理或更大模型的场景。**可以用于简单大模型需求的任务。

实验4: Jetson Orin Nano 8GB 推理 Deepseek-r1:7b

在这里插入图片描述
分析:

  • GPU 使用情况
    • Jetson Orin Nano 8GB 的 GPU 频率达到 98%,最大频率为 624 MHz
    • 在推理大模型时,GPU 的利用率约为 98.9%
  • CPU 使用情况
    • 推理任务主要依赖 6 个 CPU 核心 和 GPU 协同工作。
  • 显存占用
    • 显存占用达到 4.9 GB
  • 内存占用
    • 内存使用为 6.4/7.2 GB,几乎耗尽。
    • 运行大模型后,剩余内存不足以支持其他较大程序的运行。
  • 供电功率
    • 设备运行时的供电功率为 15W
  • 性能表现
    • Jetson Orin Nano 8GB 运行了7b大模型时相对流畅,有点惊讶。
  • 内存瓶颈
    • 由于内存只有 8 GB,运行 7b 大模型后,内存几乎耗尽,无法同时运行其他较大应用。
  • 总结
    • 设备能够运行7b大模型,但跑了大模型之后内存容量是明显的短板,限制了多任务处理能力,不一定能稳定执行任务。

四、终端设备部署大模型的思考

  1. 现阶段的终端设备跑大模型整体来说还是比较吃力的。除了内存压力之外,低功率也要做到10W,15W来推理大模型,也就是说对电池供电也是一个挑战,换言之,现阶段,终端搭模型的设备不可能是一个小型产品,它可以是人形机器人、机器狗,新能源汽车,但一定不是手机。
  2. 价格分析,我说个大概的数字:Jetson Nano B01 4GB 大概是1K、Jetson Orin Nano 4GB大概需要2K、Jetson Orin Nano 8GB大概需要4K。虽然这些价格也可以买到性价比不错的显卡了,但我觉得整个功率做低了实现的大模型推理,意义是更大的。
  3. 最后,训练大模型需要更高性能的显卡,我们需要往这方面去开发;与此同时,我们现阶段也需要投入去研发AI终端的推理芯片,还有,固态电池技术是不是可以在这个发展之中起到一个缓和的作用,届时是不是我们会看到 固态电池+现阶段的终端推理芯片+高效率大模型的产品出现呢?
  4. 博客写到最后,脑子有一个有趣的哲学思考:我们人类,一天只需要吃三顿饭,即可保持一整天的大脑思考,运动,对环境的识别,听觉…,如果真有造物者,生命系统何尝不是一个伟大的创造呢?

http://www.kler.cn/a/592496.html

相关文章:

  • 零知识证明:区块链隐私保护的变革力量
  • 从关键词到权重:TF-IDF算法解析
  • LeetCode 1963.使字符串平衡的最小交换次数:计数模拟(不需要麻烦的“三种写法一步步优化”)
  • 【AVRCP】服务发现互操作性:CT 与 TG 的 SDP 协议契约解析
  • 算法刷题记录——专题目录汇总
  • AFFiNE:下一代开源全能知识库工具,重新定义协作与创作
  • 如何在CCS12.7.0中生成BIN文件
  • Gemini Advanced新功能详解:AI创作与协作的终极解决方案
  • 杰理科技JL703N双模蓝牙芯片—云信
  • 免费开源的NAS解决方案:TrueNAS
  • pycharm运行终端部署(Anaconda终端与Git运行终端)
  • 抽象工厂模式 (Abstract Factory Pattern)
  • 【Apache Storm】
  • python3+pytest+allure自动化框架搭建
  • GED-VIZ部署解决方案
  • 如何在 Node.js 中使用 .env 文件管理环境变量 ?
  • uniapp实现录音功能
  • 【C++11———线程】
  • Rust语言介绍和猜数字游戏的实现
  • 2025年,电脑还需要分区吗?