Metacognition is a critical component of intelligence, specifically regarding the awareness of one's own knowledge. While humans rely on shared internal memory for both answering questions and reporting their knowledge state, this dependency in LLMs remains underexplored. This study proposes a framework to measure metacognitive ability $d_{\rm{type2}}'$ using a dual-prompt method, followed by the introduction of Evolution Strategy for Metacognitive Alignment (ESMA) to bind a model's internal knowledge to its explicit behaviors. ESMA demonstrates robust generalization across diverse untrained settings, indicating a enhancement in the model's ability to reference its own knowledge. Furthermore, parameter analysis attributes these improvements to a sparse set of significant modifications.


翻译:元认知是智能的关键组成部分,尤其涉及对自身知识的觉知。虽然人类依赖共享的内部记忆来回答问题并报告其知识状态,但大型语言模型中这种依赖性仍未得到充分探索。本研究提出一个框架,通过双提示方法测量元认知能力 $d_{\rm{type2}}'$,随后引入用于元认知对齐的进化策略,以将模型的内部知识与其显式行为相绑定。该策略在多种未经训练的设定中展现出强大的泛化能力,表明模型参照自身知识的能力得到提升。此外,参数分析表明这些改进可归因于少量关键参数的修改。

0
下载
关闭预览

相关内容

认知机器的模型与结构研究进展
专知会员服务
19+阅读 · 2025年5月5日
《大型语言模型情感认知》最新进展
专知会员服务
43+阅读 · 2024年10月3日
大语言模型增强知识表示学习综述
专知会员服务
69+阅读 · 2024年7月2日
专题综述 | 大语言模型中的知识生命周期
专知会员服务
60+阅读 · 2024年4月16日
【斯坦福博士论文】在语言模型融合多模态知识,225页pdf
多模态认知计算
专知会员服务
182+阅读 · 2022年9月16日
专知会员服务
27+阅读 · 2021年10月12日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员