当前位置: 首页 > article >正文

【环境安装】安装LLaMA-Factory

【机器背景说明】Linux-Centos7;显卡驱动:Driver Version: 460.106.00;Tesla P40 * 2

【目标环境说明】

torch==1.13.1+cu116

llamafactory==0.9.2.dev0

1.CUDA11.6软件安装

CUDA11.6软件有两种安装方式,一个是直接安装到Pip环境中、一种是下载到本地安装

1.1在Pip环境里直接安装(推荐)

此方法优点:省事不需要通过环境变量来控制cuda版本;缺点:占用空间更大,多个环境无法复用同个版本。安装方法直接敲下面命令:

pip install nvidia-cudnn-cu11==8.5.0.96 -i  https://mirrors.aliyun.com/pypi/simple

1.2在系统里安装

此部分方法是在NVIDIA中下载CUDA软件,然后安装到本地,如果是Linux通过bashrc下面绑定:

export PATH=/usr/local/cuda-11.6/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-11.6/lib64:$LD_LIBRARY_PATH

附CUDA下载地址:CUDA Toolkit Archive | NVIDIA Developer

2.安装LLaMA-Factory

2.1安装torch==1.13.1+cu116

可以直接按照官网的安装,网速快慢可以自己先登陆url看看下载速度

pip install torch==1.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116

或者:

直接去https://download.pytorch.org/whl/torch/下载torch==1.13.1+cu116,然后pip install对应的包

2.2安装LLaMA-Factory

LLaMA-Factory地址:,安装的是0.9.2.dev0版本,进本地,然后按官网的教程,先进下载目录,在setup.py同级目录敲下面命令:

pip install -e ".[torch,metrics]" -i https://mirrors.aliyun.com/pypi/simple

等待,安装完应该没太大问题了。

最后如果本文对你有些许帮助,赠人玫瑰手有余香,谢谢`


http://www.kler.cn/a/508120.html

相关文章:

  • PCL 新增自定义点类型【2025最新版】
  • 无公网IP 实现外网访问本地 Docker 部署 Navidrome
  • 网络技术发展的演变与未来展望
  • 26_Redis RDB持久化
  • 基于R计算皮尔逊相关系数
  • 计算机二级-Java系列(Java的特点)
  • 获取手机验证码登录的完整流程
  • 【git命令行】git pull冲突如何使用stash暂存,不提交当前工作的情况下临时保存修改
  • anaconda安装和环境配置
  • Android Http基础:图片下载并显示和WebView的应用
  • unity——Prejct3——背景音乐
  • 问题记录-Linux 下.sh脚本中变量不识别-2025-1-14
  • 【爬虫】使用 Scrapy 框架爬取豆瓣电影 Top 250 数据的完整教程
  • Open3D 手动裁剪点云【2025最新版】
  • 【25考研】西南交通大学计算机复试重点及经验分享!
  • Node.js - Cookie与Session详解
  • pc 端 TensorRT API 实现 YOLOv11 的 C++ 小白部署经验
  • WebSocket实现分布式的不同方案对比
  • 微服务网关,如何选择?
  • Oracle报错ORA-01078、LRM-00109
  • ElasticSearch常见知识点
  • React Native的现状与未来:从发展到展望
  • 以太网详解(五)GMII、RGMII、SGMII接口时序约束(Quartus 平台)
  • 【2024年华为OD机试】 (B卷,100分)- 响应报文时间(Java JS PythonC/C++)
  • openssl s_server源码剥离
  • C++ 之多线程相关总结