We present Lattice Menu, a gaze-based marking menu utilizing a lattice of visual anchors that helps perform accurate gaze pointing for menu item selection. Users who know the location of the desired item can leverage target-assisted gaze gestures for multilevel item selection by looking at visual anchors over the gaze trajectories. Our evaluation showed that Lattice Menu exhibits a considerably low error rate (~1%) and a quick menu selection time (1.3-1.6 s) for expert usage across various menu structures (4 x 4 x 4 and 6 x 6 x 6) and sizes (8, 10 and 12°). In comparison with a traditional gaze-based marking menu that does not utilize visual targets, Lattice Menu showed remarkably (~5 times) fewer menu selection errors for expert usage. In a post-interview, all 12 subjects preferred Lattice Menu, and most subjects (8 out of 12) commented that the provisioning of visual targets facilitated more stable menu selections with reduced eye fatigue.


翻译:本文提出Lattice Menu,一种基于视线的标记菜单,通过利用视觉锚点构成的网格来辅助实现精确的视线指向以进行菜单项选择。熟悉目标项位置的用户可通过注视视线轨迹上的视觉锚点,借助目标辅助的视线手势完成多层级菜单项选择。评估结果表明,在不同菜单结构(4×4×4与6×6×6)和尺寸(8°、10°和12°)下,Lattice Menu在专家使用中表现出极低的错误率(约1%)和快速的菜单选择时间(1.3-1.6秒)。与未采用视觉目标的传统视线标记菜单相比,Lattice Menu在专家使用中的菜单选择错误显著减少(约降低至1/5)。在后续访谈中,全部12名受试者均倾向于选择Lattice Menu,其中多数受试者(8/12)认为视觉目标的提供使得菜单选择更稳定,同时减轻了视觉疲劳。

0
下载
关闭预览

相关内容

【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
CVPR 2019:精确目标检测的不确定边界框回归
AI科技评论
13+阅读 · 2019年9月16日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关资讯
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
CVPR 2019:精确目标检测的不确定边界框回归
AI科技评论
13+阅读 · 2019年9月16日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员