Real-time rendering of dynamic line sets is relevant in many visualization tasks, including unsteady flow visualization and interactive white matter reconstruction from Magnetic Resonance Imaging. High-quality global illumination and transparency are important for conveying the spatial structure of dense line sets, yet remain difficult to achieve at interactive rates. We propose an efficient voxel-based ray-tracing framework for rendering large dynamic line sets with ambient occlusion and ground-truth transparency. The framework introduces a voxelization algorithm that supports efficient construction of acceleration structures for both voxel cone tracing and ray tracing. To further reduce per-frame preprocessing cost, we developed a voxel-based culling method that restricts acceleration structure construction to camera-visible voxels. Together, these contributions enable high-quality, real-time rendering of large-scale dynamic line sets with physically accurate transparency. The results show that our method outperforms the state of the art in quality and performance when rendering (semi-)opaque dynamic line sets.


翻译:动态线集的实时渲染在许多可视化任务中具有重要意义,包括非定常流场可视化以及磁共振成像中白质结构的交互式重建。高质量的全局光照与透明度对于传达密集线集的空间结构至关重要,但在交互速率下仍难以实现。本文提出了一种高效的基于体素的光线追踪框架,用于渲染具有环境光遮蔽与真实透明度的大规模动态线集。该框架引入了一种体素化算法,支持为体素锥追踪和光线追踪高效构建加速结构。为进一步降低每帧预处理开销,我们开发了一种基于体素的剔除方法,将加速结构的构建限制在相机可见体素范围内。这些贡献共同实现了具有物理精确透明度的大规模动态线集的高质量实时渲染。实验结果表明,在渲染(半)不透明动态线集时,本方法在质量与性能上均优于现有技术。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员