跳过正文
  1. posts/

FlashAttention - 论文阅读与安装技巧

·195 字·1 分钟·
论文阅读 Attention 环境安装 LLM
陈驰水
作者
陈驰水
感谢您看到这里,祝您生活愉快
目录
此篇包含 FlashAttention v1和v2 的原文内容,以 PPT 图片形式呈现。内容参考原文、网络博客与 GPT 老师。此外,FlashAttention 的环境安装经常出问题,下面也给出了解决方法。

环境安装
#

直接 pip install flash-atten 的编译时间会非常长,如果网络不好还会出更多问题/

方法一,ninja加速(同时使用清华镜像):

python -m pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple
MAX_JOBS=4 pip install flash-attn --use-pep517 --no-build-isolation -i https://pypi.tuna.tsinghua.edu.cn/simple

方法二,直接下载编译好的 releases:

https://github.com/Dao-AILab/flash-attention/releases

找到符合自己的 torch 和 cuda 版本下载即可。

论文阅读
#

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

相关文章

Pytorch 备忘录
·3136 字·7 分钟
机器学习 Pytorch
“资源分配型” 动态规划总结
·2570 字·6 分钟
算法与数据结构 动态规划 背包问题 记忆化搜索
蛋糕游戏题解 - 贪心博弈
·921 字·2 分钟
算法与数据结构 贪心 博弈 前缀和
基础数论 - 模板 & 分析
·1766 字·4 分钟
算法与数据结构 数论 模板