Explainable artificial intelligence (XAI) enables data-driven understanding of factor associations with response variables, yet communicating XAI outputs to laypersons remains challenging, hindering trust in AI-based predictions. Large language models (LLMs) have emerged as promising tools for translating technical explanations into accessible narratives, yet the integration of agentic AI, where LLMs operate as autonomous agents through iterative refinement, with XAI remains unexplored. This study proposes an agentic XAI framework combining SHAP-based explainability with multimodal LLM-driven iterative refinement to generate progressively enhanced explanations. As a use case, we tested this framework as an agricultural recommendation system using rice yield data from 26 fields in Japan. The Agentic XAI initially provided a SHAP result and explored how to improve the explanation through additional analysis iteratively across 11 refinement rounds (Rounds 0-10). Explanations were evaluated by human experts (crop scientists) (n=12) and LLMs (n=14) against seven metrics: Specificity, Clarity, Conciseness, Practicality, Contextual Relevance, Cost Consideration, and Crop Science Credibility. Both evaluator groups confirmed that the framework successfully enhanced recommendation quality with an average score increase of 30-33% from Round 0, peaking at Rounds 3-4. However, excessive refinement showed a substantial drop in recommendation quality, indicating a bias-variance trade-off where early rounds lacked explanation depth (bias) while excessive iteration introduced verbosity and ungrounded abstraction (variance), as revealed by metric-specific analysis. These findings suggest that strategic early stopping (regularization) is needed for optimizing practical utility, challenging assumptions about monotonic improvement and providing evidence-based design principles for agentic XAI systems.


翻译:可解释人工智能(XAI)能够实现基于数据的因子与响应变量关联性理解,但向非专业人士传达XAI输出结果仍具挑战性,这阻碍了人们对基于AI预测的信任。大语言模型(LLM)已成为将技术性解释转化为可理解叙述的有力工具,然而代理式AI(即LLM通过迭代优化作为自主代理运行)与XAI的结合尚未得到探索。本研究提出了一种代理式XAI框架,将基于SHAP的可解释性与多模态LLM驱动的迭代优化相结合,以生成持续增强的解释。作为应用案例,我们使用日本26块稻田的产量数据,将该框架测试为农业推荐系统。该代理式XAI首先生成SHAP结果,随后通过11轮优化(第0-10轮)迭代探索如何通过附加分析改进解释。由人类专家(作物科学家)(n=12)和LLM(n=14)根据七个指标对解释进行评估:特异性、清晰度、简洁性、实用性、情境相关性、成本考量及作物科学可信度。两组评估者均确认该框架成功提升了推荐质量,平均得分较第0轮提高30-33%,在第3-4轮达到峰值。然而,过度优化导致推荐质量显著下降,这表明存在偏差-方差权衡:早期轮次因解释深度不足呈现偏差,而过度迭代则引发冗长表述与无根据的抽象化(方差),这一现象通过指标特异性分析得以揭示。这些发现表明,优化实际效用需要策略性的早停机制(正则化),这对单调改进的假设提出了挑战,并为代理式XAI系统提供了基于证据的设计原则。

0
下载
关闭预览

相关内容

可解释人工智能中的大语言模型:全面综述
专知会员服务
53+阅读 · 2025年4月2日
可解释人工智能(XAI):从内在可解释性到大语言模型
专知会员服务
34+阅读 · 2025年1月20日
人工智能(XAI)可解释性的研究进展!
专知会员服务
9+阅读 · 2024年6月12日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
101+阅读 · 2020年10月13日
【干货书】可解释人工智能(xAI)方法和深度元学习模型
专知会员服务
62+阅读 · 2020年9月13日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
机器学习可解释性工具箱XAI
专知
11+阅读 · 2019年2月8日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员