随着大语言模型(LLMs)从实验室研究走向实际应用,鉴于其演进速度之快及其内部机制的不可透明性(Opaque),理解并控制其行为已变得至关重要。本教程探讨了将规范化表征学习作为实现可控性、可解释性和迁移性的基础。参与者将学习如何构建可解释的模块化表征,以引导模型行为、提高推理效率,并通过表征重组(Recombination)将模型能力扩展至新任务。本教程植根于以人为本的度量体系和严谨的数据设计,为构建更具鲁棒性、透明且可信的 LLM 辅助系统提供了演进路线图。

成为VIP会员查看完整内容
31

相关内容

不可错过!《大语言模型》课程
专知会员服务
28+阅读 · 2025年4月15日
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
【AAAI2024教程】在规划中大型语言模型的作用,181页ppt
专知会员服务
78+阅读 · 2024年2月22日
「强化学习可解释性」最新2022综述
专知
12+阅读 · 2022年1月16日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员