We introduce $\textit{InExtremIS}$, a weakly supervised 3D approach to train a deep image segmentation network using particularly weak train-time annotations: only 6 extreme clicks at the boundary of the objects of interest. Our fully-automatic method is trained end-to-end and does not require any test-time annotations. From the extreme points, 3D bounding boxes are extracted around objects of interest. Then, deep geodesics connecting extreme points are generated to increase the amount of "annotated" voxels within the bounding boxes. Finally, a weakly supervised regularised loss derived from a Conditional Random Field formulation is used to encourage prediction consistency over homogeneous regions. Extensive experiments are performed on a large open dataset for Vestibular Schwannoma segmentation. $\textit{InExtremIS}$ obtained competitive performance, approaching full supervision and outperforming significantly other weakly supervised techniques based on bounding boxes. Moreover, given a fixed annotation time budget, $\textit{InExtremIS}$ outperforms full supervision. Our code and data are available online.


翻译:我们引入了 $\ textit{ inExtremIS} $。 这是一种监管薄弱的三维方法, 用来用特别薄弱的列车时间说明来训练深图像分割网络: 只有6个极端点击点在受关注对象的边界上。 我们的全自动方法经过培训, 不需要任何测试时间说明。 从极端点中, 3D 捆绑框在受关注对象周围提取 。 然后, 产生连接极端点的深海大地测量, 以增加捆绑框内的“ 附加说明” 氧化物数量。 最后, 使用监管薄弱的常规损失, 用于鼓励在同质区域上预测一致性。 在 Vestibulal Schwannoma 分割的大型开放数据集上进行了广泛的实验。 $\ textit{ IntremIS} 获得竞争性业绩, 接近全面监督, 并大大优于其他基于绑框的监管不力的技术。 此外, 由于固定的注时间预算, $\ text {Instremis} experforages froductionsul expeciductions。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
专知会员服务
110+阅读 · 2020年3月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Deep Co-Training for Semi-Supervised Image Segmentation
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Top
微信扫码咨询专知VIP会员