Phishing and related cyber threats are becoming more varied and technologically advanced. Among these, email-based phishing remains the most dominant and persistent threat. These attacks exploit human vulnerabilities to disseminate malware or gain unauthorized access to sensitive information. Deep learning (DL) models, particularly transformer-based models, have significantly enhanced phishing mitigation through their contextual understanding of language. However, some recent threats, specifically Artificial Intelligence (AI)-generated phishing attacks, are reducing the overall system resilience of phishing detectors. In response, adversarial training has shown promise against AI-generated phishing threats. This study presents a hybrid approach that uses DistilBERT, a smaller, faster, and lighter version of the BERT transformer model for email classification. Robustness against text-based adversarial perturbations is reinforced using Fast Gradient Method (FGM) adversarial training. Furthermore, the framework integrates the LIME Explainable AI (XAI) technique to enhance the transparency of the DistilBERT architecture. The framework also uses the Flan-T5-small language model from Hugging Face to generate plain-language security narrative explanations for end-users. This combined approach ensures precise phishing classification while providing easily understandable justifications for the model's decisions.


翻译:网络钓鱼及相关网络威胁正变得日益多样化和技术化。其中,基于电子邮件的钓鱼攻击仍是最主要且持续存在的威胁。此类攻击利用人类心理弱点传播恶意软件或非法获取敏感信息。深度学习模型,特别是基于Transformer的模型,通过对语言的上下文理解显著提升了钓鱼攻击的防范能力。然而,近期出现的某些威胁,特别是人工智能生成的钓鱼攻击,正在降低钓鱼检测系统的整体韧性。作为应对策略,对抗训练在防御AI生成的钓鱼威胁方面展现出潜力。本研究提出一种混合方法:采用轻量化、快速且精简的BERT Transformer变体——DistilBERT进行邮件分类;通过基于快速梯度法的对抗训练增强模型对文本对抗扰动的鲁棒性;同时集成LIME可解释人工智能技术以提升DistilBERT架构的透明度。该框架还利用Hugging Face的Flan-T5-small语言模型生成面向终端用户的自然语言安全叙事解释。这种综合方法在确保精准钓鱼分类的同时,为模型决策提供了易于理解的解释依据。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月5日
专知会员服务
56+阅读 · 2020年12月28日
ISWC2020最佳论文《可解释假信息检测的链接可信度评价》
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
35+阅读 · 2020年6月3日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员