成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
对抗性攻击
关注
1
综合
百科
VIP
热门
动态
论文
精华
Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks
Arxiv
0+阅读 · 2月13日
Are Modern Speech Enhancement Systems Vulnerable to Adversarial Attacks?
Arxiv
0+阅读 · 1月30日
Admissibility of Stein Shrinkage for Batch Normalization in the Presence of Adversarial Attacks
Arxiv
0+阅读 · 2月3日
Concept activation vectors: a unifying view and adversarial attacks
Arxiv
1+阅读 · 1月27日
Reward-Preserving Attacks For Robust Reinforcement Learning
Arxiv
0+阅读 · 1月12日
Analyzing Reasoning Shifts in Audio Deepfake Detection under Adversarial Attacks: The Reasoning Tax versus Shield Bifurcation
Arxiv
0+阅读 · 1月7日
Higher-Order Adversarial Patches for Real-Time Object Detectors
Arxiv
0+阅读 · 1月8日
Multi-Layer Confidence Scoring for Detection of Out-of-Distribution Samples, Adversarial Attacks, and In-Distribution Misclassifications
Arxiv
0+阅读 · 2025年12月22日
Adversarial Attacks Against Deep Learning-Based Radio Frequency Fingerprint Identification
Arxiv
0+阅读 · 2025年12月12日
StyleFool: Fooling Video Classification Systems via Style Transfer
Arxiv
0+阅读 · 2023年5月2日
Employing Deep Ensemble Learning for Improving the Security of Computer Networks against Adversarial Attacks
Arxiv
1+阅读 · 2023年4月17日
SoK: Certified Robustness for Deep Neural Networks
Arxiv
0+阅读 · 2023年4月12日
Unfooling Perturbation-Based Post Hoc Explainers
Arxiv
0+阅读 · 2023年4月12日
Defense-Prefix for Preventing Typographic Attacks on CLIP
Arxiv
0+阅读 · 2023年4月10日
Adversarially Robust Neural Architecture Search for Graph Neural Networks
Arxiv
0+阅读 · 2023年4月9日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top