Recent advances in tabular in-context learning (ICL) show that a single pretrained model can adapt to new prediction tasks from a small set of labeled examples, avoiding per-task training and heavy tuning. However, many real-world tasks live in relational databases, where predictive signal is spread across multiple linked tables rather than a single flat table. We show that tabular ICL can be extended to relational prediction with a simple recipe: automatically featurize each target row using relational aggregations over its linked records, materialize the resulting augmented table, and run an off-the-shelf tabular foundation model on it. We package this approach in \textit{RDBLearn} (https://github.com/HKUSHXLab/rdblearn), an easy-to-use toolkit with a scikit-learn-style estimator interface that makes it straightforward to swap different tabular ICL backends; a complementary agent-specific interface is provided as well. Across a broad collection of RelBench and 4DBInfer datasets, RDBLearn is the best-performing foundation model approach we evaluate, at times even outperforming strong supervised baselines trained or fine-tuned on each dataset.


翻译:近年来,表格上下文学习(ICL)的研究进展表明,单个预训练模型能够通过少量标注示例适应新的预测任务,从而避免了针对每个任务进行单独训练和繁重的调优。然而,许多现实世界的任务存在于关系数据库中,其预测信号分布在多个相互关联的表中,而非单一的扁平表中。我们证明,表格ICL可以通过一个简单的方案扩展到关系预测:使用关系聚合对每个目标行及其关联记录进行自动特征化,物化得到的增强表,并在此表上运行一个现成的表格基础模型。我们将此方法封装于 \textit{RDBLearn} (https://github.com/HKUSHXLab/rdblearn) 中,这是一个易于使用的工具包,提供了类似 scikit-learn 的估计器接口,便于灵活替换不同的表格ICL后端;同时,也提供了一个互补的智能体专用接口。在涵盖 RelBench 和 4DBInfer 数据集的广泛实验中,RDBLearn 是我们评估的性能最佳的基础模型方法,有时甚至优于在每个数据集上训练或微调的强监督基线。

0
下载
关闭预览

相关内容

专知会员服务
36+阅读 · 2020年11月29日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月14日
Arxiv
0+阅读 · 2月11日
Arxiv
0+阅读 · 2月5日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(简介)
专知会员服务
1+阅读 · 今天15:19
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
3+阅读 · 今天15:13
软件定义多域战术网络:基础与未来方向(综述)
水下战战术决策中的气象与海洋预报(50页报告)
远程空中优势:新一代超视距导弹的兴起
专知会员服务
1+阅读 · 今天14:45
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 今天12:07
相关VIP内容
专知会员服务
36+阅读 · 2020年11月29日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员