In real scenarios, videos can span several minutes or even hours. However, existing research on spatio-temporal video grounding (STVG), given a textual query, mainly focuses on localizing targets in short videos of tens of seconds, typically less than one minute, which limits real-world applications. In this paper, we explore Long-Form STVG (LF-STVG), which aims to locate targets in long-term videos. Compared with short videos, long-term videos contain much longer temporal spans and more irrelevant information, making it difficult for existing STVG methods that process all frames at once. To address this challenge, we propose an AutoRegressive Transformer architecture for LF-STVG, termed ART-STVG. Unlike conventional STVG methods that require the entire video sequence to make predictions at once, ART-STVG treats the video as streaming input and processes frames sequentially, enabling efficient handling of long videos. To model spatio-temporal context, we design spatial and temporal memory banks and apply them to the decoders. Since memories from different moments are not always relevant to the current frame, we introduce simple yet effective memory selection strategies to provide more relevant information to the decoders, significantly improving performance. Furthermore, instead of parallel spatial and temporal localization, we propose a cascaded spatio-temporal design that connects the spatial decoder to the temporal decoder, allowing fine-grained spatial cues to assist complex temporal localization in long videos. Experiments on newly extended LF-STVG datasets show that ART-STVG significantly outperforms state-of-the-art methods, while achieving competitive performance on conventional short-form STVG.


翻译:在现实场景中,视频时长可达数分钟甚至数小时。然而,现有基于文本查询的时空视频定位研究主要集中于在数十秒(通常短于一分钟)的短视频中定位目标,这限制了其实际应用。本文探索长时空中视频定位,其目标是在长时视频中定位目标。与短视频相比,长时视频包含更长的时序跨度与更多无关信息,这使得现有一次性处理所有帧的STVG方法难以应对。为应对这一挑战,我们提出一种用于LF-STVG的自回归Transformer架构,称为ART-STVG。与需要一次性处理整个视频序列以进行预测的传统STVG方法不同,ART-STVG将视频视为流式输入并顺序处理帧,从而能够高效处理长视频。为建模时空上下文,我们设计了空间与时间记忆库并将其应用于解码器。由于不同时刻的记忆并非总与当前帧相关,我们引入了简单而有效的记忆选择策略,为解码器提供更相关的信息,显著提升了性能。此外,我们提出了一种级联的时空设计,将空间解码器与时间解码器相连接,取代了并行的空间与时间定位方式,使得细粒度的空间线索能够辅助长视频中复杂的时序定位。在新扩展的LF-STVG数据集上的实验表明,ART-STVG显著优于现有最优方法,同时在传统的短时STVG任务上也取得了具有竞争力的性能。

0
下载
关闭预览

相关内容

【博士论文】视频理解:时间维度的深度透视
专知会员服务
7+阅读 · 2月5日
【CVPR2025】重新思考长时视频理解中的时序检索
专知会员服务
13+阅读 · 2025年4月6日
【伯克利博士论文】多模态长视频理解,126页pdf
专知会员服务
50+阅读 · 2023年9月3日
「视频片段检索」最新2022研究综述
专知会员服务
33+阅读 · 2022年8月7日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
76+阅读 · 2022年1月20日
专知会员服务
29+阅读 · 2021年9月13日
专知会员服务
23+阅读 · 2021年5月1日
专知会员服务
81+阅读 · 2021年3月20日
「视频目标跟踪」最新2022研究进展综述
专知
10+阅读 · 2022年9月26日
时空数据挖掘:综述
专知
36+阅读 · 2022年6月30日
计算机视觉方向简介 | 多目标跟踪算法(附源码)
计算机视觉life
15+阅读 · 2019年6月26日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
技术、多域威慑与海上战争(报告)
专知会员服务
3+阅读 · 今天15:04
“在云端防御”:提升北约数据韧性(报告)
专知会员服务
2+阅读 · 今天14:54
人工智能及其在海军行动中的整合(综述)
专知会员服务
2+阅读 · 今天14:07
美军MAVEN项目全面解析:算法战架构
专知会员服务
16+阅读 · 今天8:36
从俄乌战场看“马赛克战”(万字长文)
专知会员服务
10+阅读 · 今天8:19
相关VIP内容
【博士论文】视频理解:时间维度的深度透视
专知会员服务
7+阅读 · 2月5日
【CVPR2025】重新思考长时视频理解中的时序检索
专知会员服务
13+阅读 · 2025年4月6日
【伯克利博士论文】多模态长视频理解,126页pdf
专知会员服务
50+阅读 · 2023年9月3日
「视频片段检索」最新2022研究综述
专知会员服务
33+阅读 · 2022年8月7日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
76+阅读 · 2022年1月20日
专知会员服务
29+阅读 · 2021年9月13日
专知会员服务
23+阅读 · 2021年5月1日
专知会员服务
81+阅读 · 2021年3月20日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员