Extracting simple mathematical expression from an observational dataset to describe complex natural phenomena is one of the core objectives of artificial intelligence (AI). This field is known as symbolic regression (SR). Traditional SR models are based on genetic programming (GP) or reinforcement learning (RL), facing well-known challenges, such as low efficiency and overfitting. Recent studies have integrated SR with large language models (LLMs), enabling fast zero-shot inference by learning mappings from millions of dataset-expression pairs. However, since the input and output are inherently different modalities, such models often struggle to converge effectively. In this paper, we introduce ViSymRe, a vision-guided multimodal SR model that incorporates the third resource, expression graph, to bridge the modality gap. Different from traditional multimodal models, ViSymRe is trained to extract vision, termed virtual vision, from datasets, without relying on the global availability of expression graphs, which addresses the essential challenge of visual SR, i.e., expression graphs are not available during inference. Evaluation results on multiple mainstream benchmarks show that ViSymRe achieves more competitive performance than the state-of-the-art dataset-only baselines. The expressions predicted by ViSymRe not only fit the dataset well but are also simple and structurally accurate, goals that SR models strive to achieve.


翻译:从观测数据集中提取简单的数学表达式以描述复杂的自然现象,是人工智能(AI)的核心目标之一。这一领域被称为符号回归(SR)。传统的SR模型基于遗传规划(GP)或强化学习(RL),面临着众所周知的挑战,例如效率低下和过拟合。近期研究将SR与大型语言模型(LLMs)相结合,通过学习数百万个数据集-表达式对的映射,实现了快速的零样本推理。然而,由于输入和输出本质上是不同的模态,此类模型往往难以有效收敛。本文提出ViSymRe,一种视觉引导的多模态SR模型,它引入了第三种资源——表达式图,以弥合模态鸿沟。与传统多模态模型不同,ViSymRe被训练从数据集中提取视觉信息(称为虚拟视觉),而无需依赖表达式图的全局可用性,这解决了视觉SR的一个核心挑战,即在推理过程中表达式图并不可用。在多个主流基准上的评估结果表明,ViSymRe取得了比当前最先进的仅使用数据集的基线模型更具竞争力的性能。ViSymRe预测的表达式不仅与数据集拟合良好,而且结构简单准确,这正是SR模型力求实现的目标。

0
下载
关闭预览

相关内容

【博士论文】学习视觉-语言表示以实现多模态理解
专知会员服务
28+阅读 · 2025年2月8日
视觉自回归模型综述
专知会员服务
25+阅读 · 2024年11月14日
深度多模态数据融合
专知会员服务
55+阅读 · 2024年11月9日
视觉语言多模态预训练综述
专知会员服务
122+阅读 · 2022年7月11日
强化学习《奖励函数设计: Reward Shaping》详细解读
深度强化学习实验室
18+阅读 · 2020年9月1日
PlaNet 简介:用于强化学习的深度规划网络
谷歌开发者
13+阅读 · 2019年3月16日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员