vllm [特性]:FlashAttention 3支持

zpqajqem  于 2个月前  发布在  其他
关注(0)|答案(6)|浏览(37)

🚀功能、动机和宣传

正如您所知,FA3承诺1.5倍~的改进
Dao-AILab/flash-attention@7ef2484

替代方案

  • 无响应*

额外背景信息

  • 无响应*
mbjcgjjk

mbjcgjjk1#

是的,正在积极寻找。

uklbhaso

uklbhaso2#

有任何更新吗?

nwwlzxa7

nwwlzxa73#

这将是非常惊人的。FA3显然是Together Inference Engine通过大量跨越vllm的原因之一!

6kkfgxo0

6kkfgxo04#

对这个非常感兴趣

相关问题