Expressive glyph visualizations provide a powerful and versatile means to represent complex multivariate data through compact visual encodings, but creating custom glyphs remains challenging due to the gap between design creativity and technical implementation. We present GlyphWeaver, a novel interactive system to enable an easy creation of expressive glyph visualizations. Our system comprises three key components: a glyph domain-specific language (GDSL), a GDSL operation management mechanism, and a multimodal interaction interface. The GDSL is a hierarchical container model, where each container is independent and composable, providing a rigorous yet practical foundation for complex glyph visualizations. The operation management mechanism restricts modifications of the GDSL to atomic operations, making it accessible without requiring direct coding. The multimodal interaction interface enables direct manipulation, natural language commands, and parameter adjustments. A multimodal large language model acts as a translator, converting these inputs into GDSL operations. GlyphWeaver significantly lowers the barrier for designers, who often do not have extensive programming skills, to create sophisticated glyph visualizations.


翻译:富有表现力的字形可视化通过紧凑的视觉编码为表示复杂多元数据提供了强大而通用的手段,但由于设计创意与技术实现之间存在鸿沟,创建自定义字形仍然具有挑战性。本文提出GlyphWeaver,一种新颖的交互式系统,旨在实现富有表现力的字形可视化的便捷创建。我们的系统包含三个关键组件:一个字形领域特定语言(GDSL)、一个GDSL操作管理机制以及一个多模态交互界面。GDSL是一种分层容器模型,其中每个容器都是独立且可组合的,为复杂字形可视化提供了严谨而实用的基础。操作管理机制将GDSL的修改限制为原子操作,使其无需直接编码即可访问。多模态交互界面支持直接操作、自然语言命令和参数调整。一个多模态大语言模型充当翻译器,将这些输入转换为GDSL操作。GlyphWeaver显著降低了通常不具备广泛编程技能的设计师创建复杂字形可视化的门槛。

0
下载
关闭预览

相关内容

Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
Graph Transformer近期进展
专知会员服务
65+阅读 · 2023年1月5日
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
14+阅读 · 2021年12月1日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
【数字孪生】数字孪生技术发展趋势与安全风险浅析
产业智能官
54+阅读 · 2019年8月28日
【数字孪生】一文读懂数字孪生的应用及意义
产业智能官
43+阅读 · 2018年9月28日
白翔:趣谈“捕文捉字”-- 场景文字检测 | VALSE2017之十
深度学习大讲堂
19+阅读 · 2017年9月4日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
Graph Transformer近期进展
专知会员服务
65+阅读 · 2023年1月5日
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
14+阅读 · 2021年12月1日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员