In recent years, large language models (LLMs) have achieved remarkable advances and are increasingly deployed in critical applications across diverse domains. This growing adoption raises urgent concerns about their security and robustness. In this work, we investigate the impact of Bit Flip Attacks (BFAs) on LLMs, which exploit hardware faults to corrupt model parameters, thereby threatening model integrity and performance. Existing BFA studies primarily assume a white-box setting with access to exact model weights and part of the dataset, and rely on progressive gradient-based bit-search strategies to identify vulnerable bits in model weights. However, gradient computation for LLMs is computationally expensive and memory intensive. In addition, assuming access to exact victim model weights and datasets is challenging due to increasingly strict user privacy regulations. To address these challenges, we propose the first gray-box BFA framework for LLMs, Invisible Hands, designed for efficient and practical deployment. Our method, Gradient-Data-Free-BFA, identifies vulnerable weight bits without requiring knowledge of model weights, gradients, or sample data. It introduces novel vulnerability index metrics that estimate the weights of susceptibility based solely on model architecture (Grey-Box). By eliminating data access and gradient computation, our approach significantly reduces memory overhead and scales efficiently across tasks with constant complexity. Experiments on six open-source LLMs demonstrate that adversarial objectives can be achieved with minimal weight perturbations, highlighting the effectiveness and practicality of Invisible Hands.


翻译:近年来,大型语言模型取得了显著进展,并日益部署于跨领域的关键应用中。这种广泛采用引发了对其安全性与鲁棒性的迫切关注。在本工作中,我们研究了比特翻转攻击对大语言模型的影响,该攻击利用硬件故障破坏模型参数,从而威胁模型完整性与性能。现有比特翻转攻击研究主要假设白盒场景,需获取精确模型权重及部分数据集,并依赖渐进式梯度搜索策略定位模型权重中的脆弱比特。然而,大语言模型的梯度计算在计算与内存上均代价高昂。此外,由于用户隐私法规日益严格,获取精确受害者模型权重及数据集的假设难以成立。为解决上述挑战,我们提出了首个面向大语言模型的灰盒比特翻转攻击框架——无形之手,专为高效与实用部署而设计。我们的方法——无梯度数据比特翻转攻击——无需模型权重、梯度或样本数据知识即可识别脆弱权重比特。该方法引入新型脆弱性指标,仅基于模型架构即可估计权重敏感性。通过消除数据访问与梯度计算,我们的方法显著降低内存开销,并以恒定复杂度高效跨任务扩展。在六个开源大语言模型上的实验表明,即使以极小的权重扰动也能达成对抗目标,凸显了无形之手的有效性与实用性。

0
下载
关闭预览

相关内容

《LLM 时代小模型的作用》综述
专知会员服务
49+阅读 · 2024年9月12日
大型语言模型(LLMs),附Slides与视频
专知会员服务
71+阅读 · 2024年6月30日
【伯克利博士论文】规模化教大型语言模型使用工具
专知会员服务
29+阅读 · 2024年5月11日
《多模态大型语言模型》最新进展,详述26种现有MM-LLMs
专知会员服务
65+阅读 · 2024年1月25日
WSDM 2024| LLMs助力图学习?基于大模型的图数据增强
专知会员服务
27+阅读 · 2023年11月19日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
一大批中文(BERT等)预训练模型等你认领!
PaperWeekly
15+阅读 · 2019年6月25日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
《美陆军装备维护程序(2026版)》
专知会员服务
4+阅读 · 今天4:23
第五代作战任务规划:集成系统与算法
专知会员服务
6+阅读 · 今天4:11
《北约科技组织2025年亮点报告》
专知会员服务
2+阅读 · 今天3:42
人工智能在防空反导中的应用系统性综述
专知会员服务
5+阅读 · 今天2:45
新兴反无人机技术与不对称防御对策
专知会员服务
5+阅读 · 5月6日
《美空军条令出版物 3-60,目标定位(2026版)》
《定向能武器交战授权治理管道》
专知会员服务
6+阅读 · 5月6日
《人工智能与海军作战》最新报告
专知会员服务
7+阅读 · 5月6日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员