【[84星]XAttention:一种高效的Transformer注意力机制,让

爱生活爱珂珂 2025-03-23 17:43:37

【[84星]XAttention:一种高效的Transformer注意力机制,让长文本处理速度提升13.5倍!亮点:1. 基于对角线和的轻量级指标,精准识别重要注意力块;2. 在长文本、视频生成和理解等多个场景表现出色;3. 无需牺牲精度即可实现加速】

'XAttention: Block Sparse Attention with Antidiagonal Scoring'

GitHub: github.com/mit-han-lab/x-attention

Transformer 长文本处理 视频生成 AI创造营

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注