当前位置: 首页 > article >正文

Windows 安装 flash-attention 和 bitsandbytes

  • 首先保证cuda版本为12.1,torch版本为2.1.0及以上,python版本3.10以上

  • 从此处下载最新版的whl,https://github.com/jllllll/bitsandbytes-windows-webui/releases/tag/wheels,通过whl来安装bitsandbytes

  • 从此处下载最新版的whl, https://github.com/bdashore3/flash-attention/releases, 通过whl来安装flash-attn
    如果出现

CUDA SETUP: Problem: The main issue seems to be that the main CUDA library was not detected.

通常就是bitsandbytes的版本没装对,或者cuda版本不对。确保安装cuda12.1以及对应的torch,再从whl安装bitsandbytes,即可避免此问题。


http://www.kler.cn/news/160201.html

相关文章:

  • 根文件系统初步测试
  • YOLOv8改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
  • 如何解决syntaxerror: more than 255 arguments 报错
  • HG/T 5367.2-2022 轨道交通车辆耐电弧绝缘涂料检测
  • 论文笔记--A Fine-grained Interpretability Evaluation Benchmark for Neural NLP
  • Redis--13--缓存一致性问题
  • ES 模块语法改为 CommonJS 模块语法的区别
  • RK3288升级WebView版本,替换webview app
  • mv视频怎么做成二维码?扫码用流量看视频更方便
  • 1.2 C语言简介
  • 微服务知识大杂烩
  • uniapp 使用web-view外接三方
  • LeetCode 每日一题 Day 4
  • [leetcode 差分数组] 拼车 M
  • Vue2中v-html引发的安全问题
  • 全息图着色器插件:Hologram Shaders Pro for URP, HDRP Built-in
  • 23 动态规划解买卖股票的最佳时机含手续费
  • node切换版本
  • C++转义符及用法
  • mysql基础之DQL基本单表查询
  • 『Jmeter超级干货』| Linux下Jmeter安装配置、脚本设计执行、监控及报告完整过程
  • Windows 下 PyTorch 入门深度学习环境安装与配置 GPU 版
  • Windows server 部署iSCSI共享磁盘搭建故障转移群集
  • BearPi Std 板从入门到放弃 - 引气入体篇(9)(DAC->ADC)
  • Java LeetCode篇-深入了解二叉树经典解法(三种方式实现:获取二叉树的最大深度)
  • Redis——某马点评day03——part2:秒杀业务异步优化
  • 鸿蒙4.0开发笔记之ArkTS语法基础之应用生命周期与页面中组件的生命周期(十六)
  • Park Unpark
  • Web安全漏洞分析-XSS(下)
  • ApplicationContextAware 类