回看近两年的顶会成果注意力机制的创新趋势已经很明显了纯改权重、堆头数那套基本卷无可卷但把注意力机制当基础设施去解决效率、跨模态对齐或者长序列建模痛点还是很有搞头的。本文精选了CVPR、ICLR、ICML、AAAI、ACL、WWW、ICASSP、SIGIR、ICSE 2026中极具代表性的147篇工作。看完你就能发现线性注意力、细粒度跨模态对齐、轻量化设计才是现在注意力机制出成果最快的三条路。建议感兴趣的朋友人手一份直接参考合集里的论文可以帮你省下不少筛资料的时间还能加速摸清研究脉络、对标前沿思路快人一步找到那个能中的idea。扫码添加小享回复“注意力合集”免费获取全部论文开源代码以下是部分顶会论文简析【CVPR 2026】UCAN: Unified Convolutional Attention Network for Expansive Receptive Fields in Lightweight Super-Resolution研究方法论文提出轻量级图像超分网络 UCAN以Flash Attention 实现高效大窗口注意力、Hedgehog Attention 增强线性注意力特征秩与多样性、混合注意力融合局部与全局依赖并结合跨层参数共享与大核蒸馏模块在低计算量下有效扩大感受野。创新点提出Hedgehog Attention通过Hedgehog特征映射提升线性注意力的特征秩与多样性解决传统线性注意力秩坍塌、信息丢失的问题。构建UCAN轻量化网络融合Flash Attention实现高效大窗口注意力、混合注意力兼顾局部与全局依赖搭配跨层半参数共享机制降低计算量。设计大核蒸馏模块LKD采用多分支并行结构与膨胀可分离卷积以低参量开销扩大感受野保留图像高频细节与复杂纹理。研究价值UCAN作为轻量化图像超分网络通过融合卷积与注意力、创新Hedgehog Attention与大核蒸馏机制在大幅降低参数量与计算量的前提下有效扩大感受野并提升重建精度为端侧等资源受限场景提供了性能与效率更均衡的实用解决方案。扫码添加小享回复“注意力合集”免费获取全部论文开源代码【ICLR 2026】TS-Attn: Temporal-wise Separable Attention for Multi-Event Video Generation研究方法论文提出无需训练的时序可分离注意力 TS-Attn先精准提取视频中的运动区域再对视频 - 文本跨注意力进行时序维度的重分配与自适应强化有效解耦多事件间的注意力冲突让生成内容严格遵循时序逻辑并保持全局一致性。创新点提出时序可分离注意力TS-Attn以无需训练的方式动态重构跨注意力分布解决多事件视频生成中的时序错位与耦合问题。设计运动区域提取模块精准定位视频中动作相关区域让注意力调制仅作用于运动主体避免背景干扰与画面闪烁。构建事件感知注意力调制通过注意力重排与自适应增强强化时序对应事件关联、弱化无关事件干扰可即插即用集成到主流视频生成模型。研究价值TS-Attn作为免训练、低延时、即插即用的注意力机制有效解决多事件视频生成的时序错位与事件冲突问题大幅提升文本遵循度与时序连贯性可无缝适配各类视频生成模型为复杂时序描述的高质量视频生成提供高效通用解决方案。扫码添加小享回复“注意力合集”免费获取全部论文开源代码