苏洋博客
网站首页
工作生活
编程记录
知识地图
文章存档
关于苏洋
关于本站
GitHub
折腾笔记
联系作者
文章列表
Tag: # Flash Attention
在 Nvidia Docker 容器编译构建显存优化加速组件 xFormers
2024年01月12日
xFormers
,
Flash Attention
,
Nvidia
,
Python
,
Docker
,
Linux
本篇文章,聊聊如何在新版本 PyTorch 和 CUDA 容器环境中完成 xFormers 的编译构建。让你的模型应用能够跑的更快。
阅读全文