Data-driven flow-field reconstruction typically relies on autoencoder architectures that compress high-dimensional states into low-dimensional latent representations. However, classical approaches such as variational autoencoders (VAEs) often struggle to preserve the higher-order statistical structure of fluid flows when subjected to strong compression. We propose DiffCoder, a coupled framework that integrates a probabilistic diffusion model with a conventional convolutional ResNet encoder and trains both components end-to-end. The encoder compresses the flow field into a latent representation, while the diffusion model learns a generative prior over reconstructions conditioned on the compressed state. This design allows DiffCoder to recover distributional and spectral properties that are not strictly required for minimizing pointwise reconstruction loss but are critical for faithfully representing statistical properties of the flow field. We evaluate DiffCoder and VAE baselines across multiple model sizes and compression ratios on a challenging dataset of Kolmogorov flow fields. Under aggressive compression, DiffCoder significantly improves the spectral accuracy while VAEs exhibit substantial degradation. Although both methods show comparable relative L2 reconstruction error, DiffCoder better preserves the underlying distributional structure of the flow. At moderate compression levels, sufficiently large VAEs remain competitive, suggesting that diffusion-based priors provide the greatest benefit when information bottlenecks are severe. These results demonstrate that the generative decoding by diffusion offers a promising path toward compact, statistically consistent representations of complex flow fields.


翻译:数据驱动的流场重建通常依赖于自编码器架构,该架构将高维状态压缩为低维潜在表示。然而,当进行强压缩时,变分自编码器等经典方法往往难以保持流体流动的高阶统计结构。我们提出了DiffCoder,这是一个将概率扩散模型与传统卷积ResNet编码器集成的耦合框架,并对两个组件进行端到端训练。编码器将流场压缩为潜在表示,而扩散模型则学习以压缩状态为条件的重建生成先验。这种设计使得DiffCoder能够恢复分布和谱特性,这些特性对于最小化逐点重建损失并非严格必需,但对于忠实表示流场的统计特性至关重要。我们在具有挑战性的Kolmogorov流场数据集上,评估了DiffCoder和VAE基线在多种模型大小和压缩比下的性能。在激进压缩下,DiffCoder显著提高了谱精度,而VAE则表现出显著退化。尽管两种方法显示出相当的相对L2重建误差,但DiffCoder更好地保留了流场的底层分布结构。在中等压缩水平下,足够大的VAE仍具有竞争力,这表明基于扩散的先验在信息瓶颈严重时提供最大的优势。这些结果表明,通过扩散进行生成解码为复杂流场的紧凑、统计一致的表示提供了一条有前景的路径。

0
下载
关闭预览

相关内容

扩散语言模型综述
专知会员服务
18+阅读 · 2025年8月15日
【ICML2025】扩散模型的二重性
专知会员服务
10+阅读 · 2025年6月13日
【CVPR2024】贝叶斯扩散模型用于三维形状重建
专知会员服务
34+阅读 · 2024年3月12日
【CVPR2023】DiffCollage:用扩散模型并行生成大量内容
专知会员服务
28+阅读 · 2023年4月4日
专知会员服务
24+阅读 · 2021年1月30日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
23+阅读 · 2020年1月28日
【Flink】基于 Flink 的流式数据实时去重
AINLP
14+阅读 · 2020年9月29日
一文看懂AutoEncoder模型演进图谱
AINLP
12+阅读 · 2019年6月17日
【干货】深入理解变分自编码器
专知
21+阅读 · 2018年3月22日
【干货】深入理解自编码器(附代码实现)
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月23日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员