成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
后门攻击
关注
1
综合
百科
VIP
热门
动态
论文
精华
SteganoBackdoor: Stealthy and Data-Efficient Backdoor Attacks on Language Models
Arxiv
0+阅读 · 1月5日
HeteroHBA: A Generative Structure-Manipulating Backdoor Attack on Heterogeneous Graphs
Arxiv
0+阅读 · 2025年12月31日
Causal-Guided Detoxify Backdoor Attack of Open-Weight LoRA Models
Arxiv
0+阅读 · 2025年12月22日
Semantically-Equivalent Transformations-Based Backdoor Attacks against Neural Code Models: Characterization and Mitigation
Arxiv
0+阅读 · 2025年12月22日
AttackVLA: Benchmarking Adversarial and Backdoor Attacks on Vision-Language-Action Models
Arxiv
0+阅读 · 2025年11月15日
Backdoors in DRL: Four Environments Focusing on In-distribution Triggers
Arxiv
0+阅读 · 2025年12月12日
Trojan Cleansing with Neural Collapse
Arxiv
0+阅读 · 2025年12月15日
Concept-Guided Backdoor Attack on Vision Language Models
Arxiv
0+阅读 · 2025年11月30日
Concept-Guided Backdoor Attack on Vision Language Models
Arxiv
0+阅读 · 2025年12月5日
Unveiling Hidden Threats: Using Fractal Triggers to Boost Stealthiness of Distributed Backdoor Attacks in Federated Learning
Arxiv
0+阅读 · 2025年11月12日
Towards Backdoor Stealthiness in Model Parameter Space
Arxiv
0+阅读 · 2025年12月12日
Stealthy Yet Effective: Distribution-Preserving Backdoor Attacks on Graph Classification
Arxiv
0+阅读 · 2025年12月13日
Watch Out for the Lifespan: Evaluating Backdoor Attacks Against Federated Model Adaptation
Arxiv
0+阅读 · 2025年11月18日
Backdoor Attacks Against Speech Language Models
Arxiv
0+阅读 · 2025年11月13日
UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks
Arxiv
0+阅读 · 2025年12月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top