Procedural Knowledge Libraries (PKLs) are frameworks for capturing the full arc of scientific inquiry, not just its outcomes. Whereas traditional libraries store static end products, PKLs preserve the process that leads to those results, including hypotheses, failures, decisions, and iterations. By addressing the loss of tacit knowledge -- typically buried in notebooks, emails, or memory -- PKLs lay a foundation for reproducible, collaborative, and adaptive research. PKLs provide executable, version-controlled records that contextualize each step of a research process. For example, a researcher using Jupyter notebooks could share not just final outputs, but also the reasoning, discarded approaches, and intermediate analyses that informed them. This work proposes a framework for implementing PKLs within the Jupyter ecosystem, supported by a lens-based transformation model and procedural storage schema.


翻译:过程知识库(PKLs)是一种旨在捕捉完整科学探究过程而不仅仅是其成果的框架。传统图书馆存储的是静态的最终产物,而PKLs则保存了导致这些结果的过程,包括假设、失败、决策和迭代。通过解决隐性知识(通常埋藏在笔记本、电子邮件或记忆中)的流失问题,PKLs为可重复、可协作和自适应研究奠定了基础。PKLs提供可执行的、版本控制的记录,为研究过程的每一步提供背景信息。例如,使用Jupyter笔记本的研究人员不仅可以共享最终输出,还可以共享指导这些输出的推理过程、被舍弃的方法以及中间分析。本研究提出了一个在Jupyter生态系统中实现PKLs的框架,该框架由一个基于透镜的转换模型和过程存储模式提供支持。

0
下载
关闭预览

相关内容

通过学习、实践或探索所获得的认识、判断或技能。
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
AcademicEval: Live Long-Context LLM Benchmark
Arxiv
0+阅读 · 2025年10月20日
Arxiv
17+阅读 · 2021年7月18日
Arxiv
16+阅读 · 2021年3月2日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关论文
AcademicEval: Live Long-Context LLM Benchmark
Arxiv
0+阅读 · 2025年10月20日
Arxiv
17+阅读 · 2021年7月18日
Arxiv
16+阅读 · 2021年3月2日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员