Operator learning is reshaping scientific computing by amortizing inference across infinite families of problems. While neural operators (NOs) are increasingly well understood for regression, far less is known for classification and its unsupervised analogue: clustering. We prove that sample-based neural operators can learn any finite collection of classes in an infinite-dimensional reproducing kernel Hilbert space, even when the classes are neither convex nor connected, under mild kernel sampling assumptions. Our universal clustering theorem shows that any $K$ closed classes can be approximated to arbitrary precision by NO-parameterized classes in the upper Kuratowski topology on closed sets, a notion that can be interpreted as disallowing false-positive misclassifications. Building on this, we develop an NO-powered clustering pipeline for functional data and apply it to unlabeled families of ordinary differential equation (ODE) trajectories. Discretized trajectories are lifted by a fixed pre-trained encoder into a continuous feature map and mapped to soft assignments by a lightweight trainable head. Experiments on diverse synthetic ODE benchmarks show that the resulting practical SNO recovers latent dynamical structure in regimes where classical methods fail, providing evidence consistent with our universal clustering theory.


翻译:算子学习通过将推理摊销到无限问题族中,正在重塑科学计算领域。尽管神经算子(NOs)在回归任务中的理解日益深入,但对其在分类任务及其无监督对应任务——聚类——中的认识却远为不足。我们证明,在温和的核采样假设下,基于样本的神经算子能够在无限维再生核希尔伯特空间中学习任意有限类别的集合,即使这些类别既非凸也非连通。我们的通用聚类定理表明,在闭集的上Kuratowski拓扑中,任意$K$个闭类均可由NO参数化的类以任意精度逼近,这一概念可解释为不允许假阳性误分类。在此基础上,我们开发了一种面向函数数据的NO驱动聚类流程,并将其应用于未标记的常微分方程(ODE)轨迹族。离散化轨迹通过固定的预训练编码器提升为连续特征映射,并由轻量级可训练头部映射为软分配。在多种合成ODE基准测试上的实验表明,所提出的实用SNO能够在经典方法失效的机制中恢复潜在的动力学结构,这为我们的通用聚类理论提供了支持性证据。

0
下载
关闭预览

相关内容

蛋白质深度神经网络能量函数的构建
专知会员服务
15+阅读 · 2022年8月28日
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
基于图神经网络的聚类研究与应用
THU数据派
10+阅读 · 2020年5月29日
类脑计算的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
21+阅读 · 2019年1月7日
干货 :基于用户画像的聚类分析
数据分析
22+阅读 · 2018年5月17日
最新|深度离散哈希算法,可用于图像检索!
全球人工智能
14+阅读 · 2017年12月15日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
蛋白质深度神经网络能量函数的构建
专知会员服务
15+阅读 · 2022年8月28日
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员