跳过正文
FlashAttention - 论文阅读与安装技巧
  1. posts/

FlashAttention - 论文阅读与安装技巧

·195 字·1 分钟·
陈驰水
作者
陈驰水
感谢您看到这里,祝您生活愉快
目录
此篇包含 FlashAttention v1和v2 的原文内容,以 PPT 图片形式呈现。内容参考原文、网络博客与 GPT 老师。此外,FlashAttention 的环境安装经常出问题,下面也给出了解决方法。

环境安装
#

直接 pip install flash-atten 的编译时间会非常长,如果网络不好还会出更多问题/

方法一,ninja加速(同时使用清华镜像):

python -m pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple
MAX_JOBS=4 pip install flash-attn --use-pep517 --no-build-isolation -i https://pypi.tuna.tsinghua.edu.cn/simple

方法二,直接下载编译好的 releases:

https://github.com/Dao-AILab/flash-attention/releases

找到符合自己的 torch 和 cuda 版本下载即可。

论文阅读
#

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

相关文章