We propose a probabilistic extension of Wiener-Laguerre models for causal operator learning. Classical Wiener-Laguerre models parameterize stable linear dynamics using orthonormal Laguerre bases and apply a static nonlinear map to the resulting features. While structurally efficient and interpretable, they provide only deterministic point estimates. We reinterpret the nonlinear component through the lens of Barron function approximation, viewing two-layer networks, random Fourier features, and extreme learning machines as discretizations of integral representations over parameter measures. This perspective naturally admits Bayesian inference on the nonlinear map and yields posterior predictive uncertainty. By combining Laguerre-parameterized causal dynamics with probabilistic Barron-type nonlinear approximators, we obtain a structured yet expressive class of causal operators equipped with uncertainty quantification. The resulting framework bridges classical system identification and modern measure-based function approximation, providing a principled approach to time-series modeling and nonlinear systems identification.


翻译:我们提出了一种用于因果算子学习的 Wiener-Laguerre 模型的概率扩展。经典的 Wiener-Laguerre 模型使用正交归一化的 Laguerre 基对稳定线性动力学进行参数化,并对生成的特征应用静态非线性映射。虽然结构高效且可解释,但它们仅提供确定性的点估计。我们通过 Barron 函数逼近的视角重新解释非线性分量,将两层网络、随机傅里叶特征和极限学习机视为对参数测度上积分表示的离散化。这一视角自然地允许对非线性映射进行贝叶斯推断,并产生后验预测不确定性。通过将 Laguerre 参数化的因果动力学与概率型 Barron 类非线性逼近器相结合,我们获得了一类结构化且富有表现力的因果算子,并配备了不确定性量化能力。所得框架连接了经典的系统辨识与现代的基于测度的函数逼近,为时间序列建模和非线性系统辨识提供了一种原则性方法。

0
下载
关闭预览

相关内容

144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
50+阅读 · 2025年11月21日
面向低光照图像增强的扩散模型
专知会员服务
15+阅读 · 2025年10月11日
Sora的幕后功臣?详解大火的DiT:拥抱Transformer的扩散模型
不可错过!滑铁卢最新《大模型》课程,附PPT
专知会员服务
100+阅读 · 2024年2月24日
【NeurIPS2022】黎曼扩散模型
专知会员服务
43+阅读 · 2022年9月15日
一大批中文(BERT等)预训练模型等你认领!
PaperWeekly
15+阅读 · 2019年6月25日
重构 Palantir 数据模型
待字闺中
27+阅读 · 2018年12月27日
CNN五大经典模型:LeNet,AlexNet,GoogleNet,VGG,DRL
黑龙江大学自然语言处理实验室
14+阅读 · 2018年9月7日
概率图模型体系:HMM、MEMM、CRF
机器学习研究会
30+阅读 · 2018年2月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
0+阅读 · 2月6日
Arxiv
0+阅读 · 1月15日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员