Text understanding often suffers from domain shifts. To handle testing domains, domain adaptation (DA) is trained to adapt to a fixed and observed testing domain; a more challenging paradigm, test-time adaptation (TTA), cannot access the testing domain during training and online adapts to the testing samples during testing, where the samples are from a fixed domain. We aim to explore a more practical and underexplored scenario, continual test-time adaptation (CTTA) for text understanding, which involves a sequence of testing (unobserved) domains in testing. Current CTTA methods struggle in reducing error accumulation over domains and enhancing generalization to handle unobserved domains: 1) Noise-filtering reduces accumulated errors but discards useful information, and 2) accumulating historical domains enhances generalization, but it is hard to achieve adaptive accumulation. In this paper, we propose a CTTA-T (continual test-time adaptation for text understanding) framework adaptable to evolving target domains: it adopts a teacher-student framework, where the teacher is domain-aware and generalized for evolving domains. To improve teacher predictions, we propose a refine-then-filter based on dropout-driven consistency, which calibrates predictions and removes unreliable guidance. For the adaptation-generalization trade-off, we construct a domain-aware teacher by dynamically accumulating cross-domain semantics via incremental PCA, which continuously tracks domain shifts. Experiments show CTTA-T excels baselines.


翻译:文本理解常受领域偏移影响。为应对测试领域,领域适应方法通过训练适应固定且已知的测试领域;更具挑战性的测试时适应范式在训练阶段无法访问测试领域,仅在测试时对来自固定领域的样本进行在线适应。本文旨在探索更实用且研究不足的文本理解持续测试时适应场景,该场景涉及测试阶段连续出现的多个未观测领域。现有CTTA方法在减少跨领域误差累积与增强未观测领域泛化能力方面存在局限:1)噪声过滤方法虽能降低累积误差但会丢弃有效信息;2)历史领域积累可增强泛化性,但难以实现自适应积累。本文提出可适应动态目标领域的CTTA-T框架:采用师生架构,其中教师模型具备领域感知能力并能泛化至演化领域。为提升教师预测质量,提出基于随机丢弃一致性的"校准-过滤"机制,通过预测校准消除不可靠指导。针对适应性与泛化性的权衡问题,通过增量主成分分析动态积累跨领域语义,构建能持续追踪领域偏移的领域感知教师模型。实验表明CTTA-T显著优于基线方法。

0
下载
关闭预览

相关内容

【NeurIPS2025】迈向开放世界的三维“物体性”学习
专知会员服务
11+阅读 · 2025年10月21日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员