当前位置: 首页 > article >正文

Windows 安装 flash-attention 和 bitsandbytes

  • 首先保证cuda版本为12.1,torch版本为2.1.0及以上,python版本3.10以上

  • 从此处下载最新版的whl,https://github.com/jllllll/bitsandbytes-windows-webui/releases/tag/wheels,通过whl来安装bitsandbytes

  • 从此处下载最新版的whl, https://github.com/bdashore3/flash-attention/releases, 通过whl来安装flash-attn
    如果出现

CUDA SETUP: Problem: The main issue seems to be that the main CUDA library was not detected.

通常就是bitsandbytes的版本没装对,或者cuda版本不对。确保安装cuda12.1以及对应的torch,再从whl安装bitsandbytes,即可避免此问题。


http://www.kler.cn/a/160201.html

相关文章:

  • [CKS] K8S Dockerfile和yaml文件安全检测
  • 简易入手《SOM神经网络》的本质与原理
  • 【Excel】身份证号最后一位“X”怎么计算
  • 〔 MySQL 〕数据类型
  • MySQL的SQL书写顺序和执行顺序
  • ubuntu-desktop-24.04上手指南(更新阿里源、安装ssh、安装chrome、设置固定IP、安装搜狗输入法)
  • 根文件系统初步测试
  • YOLOv8改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
  • 如何解决syntaxerror: more than 255 arguments 报错
  • HG/T 5367.2-2022 轨道交通车辆耐电弧绝缘涂料检测
  • 论文笔记--A Fine-grained Interpretability Evaluation Benchmark for Neural NLP
  • Redis--13--缓存一致性问题
  • ES 模块语法改为 CommonJS 模块语法的区别
  • RK3288升级WebView版本,替换webview app
  • mv视频怎么做成二维码?扫码用流量看视频更方便
  • 1.2 C语言简介
  • 微服务知识大杂烩
  • uniapp 使用web-view外接三方
  • LeetCode 每日一题 Day 4
  • [leetcode 差分数组] 拼车 M
  • Vue2中v-html引发的安全问题
  • 全息图着色器插件:Hologram Shaders Pro for URP, HDRP Built-in
  • 23 动态规划解买卖股票的最佳时机含手续费
  • node切换版本
  • C++转义符及用法
  • mysql基础之DQL基本单表查询