当前位置: 首页 > news >正文

FlashAttention CUDA不匹配问题(CUDA的正确安装)与编译卡住问题解决方法

在安装flash_attn的过程中,遇到了FlashAttention is only supported on CUDA 11.6 and above问题,即 CUDA 版本不匹配,但是通过nvidia-smi的指令,又能从界面上看到版本是 12.2在这里插入图片描述
所以重新梳理了一下,大概是这样的:

  • Falsh attn 对CUDA版本(即CUDA Tookit)有要求,且是 11.6 及以上
  • Nvidia-smi 看到的版本是 gpu driver 的适配版本,不是CUDA实际版本,实际版本以nvcc -V指令的显示为准(这里是在 ~ ./bashrc 文件中中进行了映射了的)
  • 所以根据报错,需要重新安装 CUDA Tookit 即可,驱动目前是符合的,不需要重新安装

那么,

修复方式:

1.重新安装CUDA,推荐流程: CUDA的正确安装/升级/重装/使用方式

2.重新 nvcc -V指令查看,

在这里插入图片描述

3.重新安装 flash_attn

(没装ninja需要安装这个,:pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple

4.(发现后续还遇到了问题…)

Building wheel for flash-attn 太久了,查了下,应该跟版本有关系,自己手动选配一下版本:https://github.com/Dao-AILab/flash-attention/releases/

比如我的:在这里插入图片描述
复制下载地址:在这里插入图片描述
wget https://github.com/Dao-AILab/flash-att_xxxx-linux_x86_64.whl 替换一下
然后 pip install xxxx.whl 手动安装,完成
在这里插入图片描述

其他相关

  • 驱动下载地址:https://developer.nvidia.com/cuda-toolkit-archive
  • CUDA Toolkit 和 Driver Versions对应表:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
  • 【CUDA】nvcc和nvidia-smi显示的版本不一致? https://blog.csdn.net/u013250861/article/details/135300026
  • flash_attn安装

相关文章:

  • ⭐算法OJ⭐跳跃游戏【贪心算法】(C++实现)Jump Game 系列 I,II
  • 全球首创!微软发布医疗AI助手,终结手写病历时代
  • 全国青少年航天创新大赛各项目对比分析
  • 【全栈开发】从0开始搭建一个图书管理系统【二】前端搭建
  • go:windows环境下安装Go语言
  • 使用 Spring Boot 实现前后端分离的海康威视 SDK 视频监控
  • 操作系统启动——前置知识预备
  • WPF+WebView 基础
  • 宝塔找不到php扩展swoole,服务器编译安装
  • Java volatile 作用和使用场景
  • 【C++指南】一文总结C++类和对象【中】
  • PyTorch 中结合迁移学习和强化学习的完整实现方案
  • MDC + TraceId分布式链路追踪
  • 深度学习pytorch之简单方法自定义9种卷积即插即用
  • 华为eNSP-链路聚合(手工负载分担模式)
  • 通俗版解释:分布式和微服务就像开餐厅
  • USRP B205mini 开箱— 沉浸式组装
  • FPGA之USB通信实战:基于FX2芯片的Slave FIFO回环测试详解
  • Windows 11【1001问】查看Windows 11登录用户的18种方法
  • 基于Windows11的DockerDesktop安装和布署方法简介
  • 一个刚做好的网站怎么做seo/百度的营销中心上班怎么样
  • 公司做网站费用入什么科目/廊坊seo网络推广
  • 东莞哪里的网站建设效果好/seo与sem的区别与联系
  • 江苏省建设工程协会网站/百度一下你就知道了 官网
  • 前端网站模板/seo必备软件
  • 东莞市专注网站建设服务机构/大作设计网站