成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
对抗样本
关注
13
对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
综合
百科
VIP
热门
动态
论文
精华
DiffBreak: Is Diffusion-Based Purification Robust?
Arxiv
0+阅读 · 2月10日
Most Convolutional Networks Suffer from Small Adversarial Perturbations
Arxiv
0+阅读 · 2月3日
CausAdv: A Causal-based Framework for Detecting Adversarial Examples
Arxiv
0+阅读 · 1月13日
CausAdv: A Causal-based Framework for Detecting Adversarial Examples
Arxiv
0+阅读 · 1月17日
Accelerating Targeted Hard-Label Adversarial Attacks in Low-Query Black-Box Settings
Arxiv
0+阅读 · 1月12日
IO-RAE: Information-Obfuscation Reversible Adversarial Example for Audio Privacy Protection
Arxiv
0+阅读 · 1月3日
Rectifying Adversarial Examples Using Their Vulnerabilities
Arxiv
0+阅读 · 1月1日
Angular Gradient Sign Method: Uncovering Vulnerabilities in Hyperbolic Networks
Arxiv
0+阅读 · 2025年11月17日
DiffProtect: Generate Adversarial Examples with Diffusion Models for Facial Privacy Protection
Arxiv
0+阅读 · 2025年11月15日
DiffProtect: Generate Adversarial Examples with Diffusion Models for Facial Privacy Protection
Arxiv
0+阅读 · 2025年11月30日
Improving Adversarial Transferability with Neighbourhood Gradient Information
Arxiv
0+阅读 · 2025年11月12日
Keep the Lights On, Keep the Lengths in Check: Plug-In Adversarial Detection for Time-Series LLMs in Energy Forecasting
Arxiv
0+阅读 · 2025年12月13日
Cheating Stereo Matching in Full-scale: Physical Adversarial Attack against Binocular Depth Estimation in Autonomous Driving
Arxiv
0+阅读 · 2025年11月18日
Cheating Stereo Matching in Full-scale: Physical Adversarial Attack against Binocular Depth Estimation in Autonomous Driving
Arxiv
0+阅读 · 2025年11月19日
Attacking Autonomous Driving Agents with Adversarial Machine Learning: A Holistic Evaluation with the CARLA Leaderboard
Arxiv
0+阅读 · 2025年11月18日
参考链接
专家谈术语 | 对抗样本
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top