Real-world information, often multimodal, can be misinformed or potentially misleading due to factual errors, outdated claims, missing context, misinterpretation, and more. Such "misinformation" is understudied, challenging to address, and harms many social domains -- particularly on social media, where it can spread rapidly. Manual correction that identifies and explains its (in)accuracies is widely accepted but difficult to scale. While large language models (LLMs) can generate human-like language that could accelerate misinformation correction, they struggle with outdated information, hallucinations, and limited multimodal capabilities. We propose MUSE, an LLM augmented with vision-language modeling and web retrieval over relevant, credible sources to generate responses that determine whether and which part(s) of the given content can be misinformed or potentially misleading, and to explain why with grounded references. We further define a comprehensive set of rubrics to measure response quality, ranging from the accuracy of identifications and factuality of explanations to the relevance and credibility of references. Results show that MUSE consistently produces high-quality outputs across diverse social media content (e.g., modalities, domains, political leanings), including content that has not previously been fact-checked online. Overall, MUSE outperforms GPT-4 by 37% and even high-quality responses from social media users by 29%. Our work provides a general methodological and evaluative framework for correcting misinformation at scale.


翻译:现实世界中的信息通常具有多模态特性,由于事实性错误、过时论断、语境缺失、误解等原因,可能包含错误信息或具有误导性。这类"错误信息"研究不足、处理困难,且危害众多社会领域——尤其在社交媒体上可能快速传播。虽然通过人工核查来识别并解释其(不)准确性被广泛认可,但难以规模化实施。尽管大型语言模型(LLMs)能够生成类人语言以加速错误信息纠正,但其存在信息过时、幻觉问题及多模态能力有限等缺陷。我们提出MUSE模型,该模型通过视觉语言建模与基于相关可信来源的网络检索进行增强,能够生成响应以判定给定内容是否及哪些部分可能存在错误或误导性,并基于可靠引用说明原因。我们进一步定义了一套完整的评估标准来衡量响应质量,涵盖识别的准确性、解释的事实性,以及引用的相关性与可信度。实验结果表明,MUSE在多样化的社交媒体内容(如不同模态、领域、政治倾向)上均能持续生成高质量输出,包括尚未经过在线事实核查的内容。总体而言,MUSE的性能较GPT-4提升37%,甚至比社交媒体用户的高质量回复高出29%。本研究为规模化纠正错误信息提供了通用的方法论与评估框架。

0
下载
关闭预览

相关内容

《深度伪造——错误信息、宣传战与信息战》最新报告
专知会员服务
28+阅读 · 2025年7月10日
《利用大型语言模型检测社交平台上的网络欺凌行为》
专知会员服务
44+阅读 · 2024年1月23日
大型语言模型公平性
专知会员服务
41+阅读 · 2023年8月31日
《作为颠覆性创新的误导信息》2023最新88页论文
专知会员服务
53+阅读 · 2023年8月30日
专知会员服务
28+阅读 · 2021年8月15日
【工大SCIR笔记】多模态信息抽取简述
深度学习自然语言处理
19+阅读 · 2020年4月3日
一文看懂虚假新闻检测(附数据集 & 论文推荐)
PaperWeekly
36+阅读 · 2019年2月19日
这可能是「多模态机器学习」最通俗易懂的介绍
计算机视觉life
113+阅读 · 2018年12月20日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
揭秘AI识别虚假新闻背后的原理
DeepTech深科技
10+阅读 · 2018年8月5日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关VIP内容
《深度伪造——错误信息、宣传战与信息战》最新报告
专知会员服务
28+阅读 · 2025年7月10日
《利用大型语言模型检测社交平台上的网络欺凌行为》
专知会员服务
44+阅读 · 2024年1月23日
大型语言模型公平性
专知会员服务
41+阅读 · 2023年8月31日
《作为颠覆性创新的误导信息》2023最新88页论文
专知会员服务
53+阅读 · 2023年8月30日
专知会员服务
28+阅读 · 2021年8月15日
相关资讯
【工大SCIR笔记】多模态信息抽取简述
深度学习自然语言处理
19+阅读 · 2020年4月3日
一文看懂虚假新闻检测(附数据集 & 论文推荐)
PaperWeekly
36+阅读 · 2019年2月19日
这可能是「多模态机器学习」最通俗易懂的介绍
计算机视觉life
113+阅读 · 2018年12月20日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
揭秘AI识别虚假新闻背后的原理
DeepTech深科技
10+阅读 · 2018年8月5日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员