成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
cache
关注
0
综合
百科
VIP
热门
动态
论文
精华
d$^2$Cache: Accelerating Diffusion-Based LLMs via Dual Adaptive Caching
Arxiv
0+阅读 · 2月16日
Dual-Signal Adaptive KV-Cache Optimization for Long-Form Video Understanding in Vision-Language Models
Arxiv
0+阅读 · 2月15日
KV-CoRE: Benchmarking Data-Dependent Low-Rank Compressibility of KV-Caches in LLMs
Arxiv
0+阅读 · 2月5日
DSB: Dynamic Sliding Block Scheduling for Diffusion LLMs
Arxiv
0+阅读 · 2月5日
Q Cache: Visual Attention is Valuable in Less than Half of Decode Layers for Multimodal Large Language Model
Arxiv
0+阅读 · 2月2日
VidLaDA: Bidirectional Diffusion Large Language Models for Efficient Video Understanding
Arxiv
0+阅读 · 1月29日
VidLaDA: Bidirectional Diffusion Large Language Models for Efficient Video Understanding
Arxiv
0+阅读 · 1月25日
Joint Encoding of KV-Cache Blocks for Scalable LLM Serving
Arxiv
0+阅读 · 1月6日
Enhancing Reliability of STT-MRAM Caches by Eliminating Read Disturbance Accumulation
Arxiv
0+阅读 · 1月1日
NVM-in-Cache: Repurposing Commodity 6T SRAM Cache into NVM Analog Processing-in-Memory Engine using a Novel Compute-on-Powerline Scheme
Arxiv
0+阅读 · 2025年12月27日
VNF-Cache: An In-Network Key-Value Store Cache Based on Network Function Virtualization
Arxiv
0+阅读 · 2025年12月23日
TDC-Cache: A Trustworthy Decentralized Cooperative Caching Framework for Web3.0
Arxiv
0+阅读 · 2025年12月10日
Efficient Low Rank Attention for Long-Context Inference in Large Language Models
Arxiv
0+阅读 · 2025年12月1日
Robustifying Learning-Augmented Caching Efficiently without Compromising 1-Consistency
Arxiv
0+阅读 · 2025年11月1日
H2-Cache: A Novel Hierarchical Dual-Stage Cache for High-Performance Acceleration of Generative Diffusion Models
Arxiv
0+阅读 · 2025年10月31日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top