成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
Attention
关注
1
综合
百科
VIP
热门
动态
论文
精华
Revealing and Enhancing Core Visual Regions: Harnessing Internal Attention Dynamics for Hallucination Mitigation in LVLMs
Arxiv
0+阅读 · 2月17日
MTFM: A Scalable and Alignment-free Foundation Model for Industrial Recommendation in Meituan
Arxiv
0+阅读 · 2月13日
MTFM: A Scalable and Alignment-free Foundation Model for Industrial Recommendation in Meituan
Arxiv
0+阅读 · 2月11日
PAL-Net: A Point-Wise CNN with Patch-Attention for 3D Facial Landmark Localization
Arxiv
0+阅读 · 2月9日
Q Cache: Visual Attention is Valuable in Less than Half of Decode Layers for Multimodal Large Language Model
Arxiv
0+阅读 · 2月2日
Attentive AV-FusionNet: Audio-Visual Quality Prediction with Hybrid Attention
Arxiv
0+阅读 · 1月22日
StreamFusion: Scalable Sequence Parallelism for Distributed Inference of Diffusion Transformers on GPUs
Arxiv
0+阅读 · 1月28日
Attention-MoA: Enhancing Mixture-of-Agents via Inter-Agent Semantic Attention and Deep Residual Synthesis
Arxiv
0+阅读 · 1月23日
S$^3$-Attention:Attention-Aligned Endogenous Retrieval for Memory-Bounded Long-Context Inference
Arxiv
0+阅读 · 1月25日
S$^3$-Attention:Attention-Aligned Endogenous Retrieval for Memory-Bounded Long-Context Inference
Arxiv
0+阅读 · 1月28日
Attention Needs to Focus: A Unified Perspective on Attention Allocation
Arxiv
0+阅读 · 1月7日
RankMamba: Benchmarking Mamba's Document Ranking Performance in the Era of Transformers
Arxiv
0+阅读 · 1月5日
Probing the Limits of Compressive Memory: A Study of Infini-Attention in Small-Scale Pretraining
Arxiv
0+阅读 · 2025年12月29日
Learning When Not to Attend Globally
Arxiv
0+阅读 · 2025年12月27日
Research on a hybrid LSTM-CNN-Attention model for text-based web content classification
Arxiv
0+阅读 · 2025年12月26日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top