Commit 11d8d0bb authored by wooway777's avatar wooway777
Browse files

issue/1033 - update readme

parent d790f7b4
......@@ -107,6 +107,7 @@ python scripts/install.py [XMAKE_CONFIG_FLAGS]
| `--ali-ppu=[y\|n]` | 是否编译阿里 PPU 接口实现 | n
| `--ninetoothed=[y\|n]` | 是否编译九齿实现 | n
| `--ccl=[y\|n]` | 是否编译 InfiniCCL 通信库接口实现 | n
| `--graph=[y\|n]` | 是否编译 cuda graph 接口实现 | n
##### 手动安装底层库
......@@ -154,6 +155,20 @@ python scripts/install.py [XMAKE_CONFIG_FLAGS]
xmake f --ascend-npu=true -cv
```
##### 试验功能 -- 使用flash attention库中的算子
```shell
(1) 在third_party目录拉取cutlass和flash attn库的源码(不需要--recursive)
(2) 设置(1)中cutlass路径的环境变量CUTLASS_ROOT
(3) xmake配置环节额外打开 --aten 开关,并设置 --flash-attn 库位置,例:
xmake f --nv-gpu=y --ccl=y --cuda=$CUDA_HOME --aten=y --flash-attn=<path-to>/InfiniCore/third_party/flash-attention -cv
(4) flash attenion库会伴随infinicore_cpp_api一同编译安装
```
2. 编译安装
默认安装路径为 `$HOME/.infini`
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment