Tabular data drive most real-world machine learning applications, yet building general-purpose models for them remains difficult. Mixed numeric and categorical fields, weak feature structure, and limited labeled data make scaling and generalization challenging. To this end, we introduce Orion-Bix, a tabular foundation model that combines biaxial attention with meta-learned in-context reasoning for few-shot tabular learning. Its encoder alternates standard, grouped, hierarchical, and relational attention, fusing their outputs through multi-CLS summarization to capture both local and global dependencies efficiently. A label-aware ICL head adapts on the fly and scales to large label spaces via hierarchical decision routing. Meta-trained on synthetically generated, structurally diverse tables with causal priors, Orion-Bix learns transferable inductive biases across heterogeneous data. Delivered as a scikit-learn compatible foundation model, it outperforms gradient-boosting baselines and remains competitive with state-of-the-art tabular foundation models on public benchmarks, showing that biaxial attention with episodic meta-training enables robust, few-shot-ready tabular learning. The model is publicly available at https://github.com/Lexsi-Labs/Orion-BiX .


翻译:表格数据驱动着大多数现实世界的机器学习应用,然而为其构建通用模型仍然困难重重。数值型与类别型字段混合、特征结构薄弱以及标记数据有限,使得模型的扩展与泛化面临挑战。为此,我们提出了Orion-BiX,一种表格基础模型,它将双轴注意力机制与元学习上下文推理相结合,用于少样本表格学习。其编码器交替使用标准注意力、分组注意力、层次注意力与关系注意力,并通过多CLS汇总融合它们的输出,从而高效捕获局部与全局依赖关系。一个标签感知的上下文学习头部能够即时适应,并通过层次化决策路由扩展至大规模标签空间。通过在具有因果先验、结构多样的合成生成表格上进行元训练,Orion-BiX能够学习跨异构数据的可迁移归纳偏置。该模型以兼容scikit-learn的基础模型形式提供,在公开基准测试中超越了梯度提升基线模型,并与最先进的表格基础模型保持竞争力,这表明结合情景式元训练的双轴注意力机制能够实现鲁棒的、少样本就绪的表格学习。模型公开地址为:https://github.com/Lexsi-Labs/Orion-BiX。

0
下载
关闭预览

相关内容

【剑桥大学博士论文】基于注意力的图表示学习
专知会员服务
25+阅读 · 2025年11月3日
【剑桥博士论文】小样本高维数据上的表格机器学习
专知会员服务
18+阅读 · 2025年4月9日
《深度表格学习综述》
专知会员服务
43+阅读 · 2024年10月18日
注意力机制综述
专知会员服务
210+阅读 · 2021年1月26日
专知会员服务
48+阅读 · 2020年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
172+阅读 · 2019年10月13日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
AmpliGraph:知识图谱表示学习工具包
专知
40+阅读 · 2019年4月6日
深度学习中的注意力机制
人工智能头条
16+阅读 · 2017年11月2日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Arxiv
0+阅读 · 1月23日
VIP会员
相关VIP内容
【剑桥大学博士论文】基于注意力的图表示学习
专知会员服务
25+阅读 · 2025年11月3日
【剑桥博士论文】小样本高维数据上的表格机器学习
专知会员服务
18+阅读 · 2025年4月9日
《深度表格学习综述》
专知会员服务
43+阅读 · 2024年10月18日
注意力机制综述
专知会员服务
210+阅读 · 2021年1月26日
专知会员服务
48+阅读 · 2020年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
172+阅读 · 2019年10月13日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员