Phishing remains a persistent cybersecurity threat; however, developing scalable and effective user training is labor-intensive and challenging to maintain. Generative Artificial Intelligence offers an interesting opportunity, but empirical evidence on its instructional efficacy remains scarce. This paper provides an experimental validation of Large Language Models (LLMs) as autonomous engines for generating phishing resilience training. Across two controlled studies (N=480), we demonstrate that AI-generated content yields significant pre-post learning gains regardless of the specific prompting strategy employed. Study 1 (N=80) compares four prompting techniques, finding that even a straightforward "direct-profile" strategy--simply embedding user traits into the prompt--produces effective training material. Study 2 (N=400) investigates the scalability of this approach by testing personalization and training duration. Results show that complex psychometric personalization offers no measurable advantage over well-designed generic content, while longer training duration provides a modest boost in accuracy. These findings suggest that organizations can leverage LLMs to generate high-quality, effective training at scale without the need for complex user profiling, relying instead on the inherent capabilities of the model.


翻译:网络钓鱼攻击仍是网络安全领域的持续性威胁,然而开发可扩展且有效的用户培训方案通常需要大量人力且难以长期维护。生成式人工智能为此提供了新的可能性,但其在教学效果方面的实证依据仍显不足。本文通过实验验证了大型语言模型作为生成网络钓鱼防御训练内容的自主引擎的有效性。通过两项对照研究(总样本量N=480),我们证明无论采用何种具体提示策略,AI生成的内容均能产生显著的前后测学习增益。研究一(N=80)比较了四种提示技术,发现即使是简单的“直接特征描述”策略——仅将用户特征嵌入提示语中——也能生成有效的训练材料。研究二(N=400)通过测试个性化程度与训练时长探究了该方法的可扩展性。结果表明,复杂的心理测量个性化方案并未比精心设计的通用内容产生可衡量的优势,而延长训练时长则能小幅提升识别准确率。这些发现表明,组织可利用大型语言模型规模化生成高质量、高效率的训练内容,无需依赖复杂的用户画像技术,仅需充分发挥模型的内在能力即可。

0
下载
关闭预览

相关内容

有监督深度学习的优化方法研究综述
专知会员服务
40+阅读 · 2023年5月15日
专知会员服务
23+阅读 · 2021年8月22日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
47+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
176+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
501+阅读 · 2023年3月31日
Arxiv
83+阅读 · 2023年3月26日
Arxiv
27+阅读 · 2023年3月17日
VIP会员
最新内容
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
5+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
8+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
6+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
13+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
9+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
4+阅读 · 4月24日
相关VIP内容
有监督深度学习的优化方法研究综述
专知会员服务
40+阅读 · 2023年5月15日
专知会员服务
23+阅读 · 2021年8月22日
相关基金
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
47+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员