Technological advances are redefining the relationship between physical and virtual spaces. Traditionally, when users engage in virtual reality, they are completely cutoff from the physical space. Similarly, they are unable to access virtual experiences while engaged in physical activities. However, modern multiplatform metaverse environments allow simultaneous participation through mobile devices, creating new opportunities for integrated experiences. This study introduces the concept of "cross-reality lifestyles" to examine how users actively combine their physical and virtual activities. We identify three patterns of integration: first, Amplification: one space enhances experiences in the other; second, Complementary: spaces offer different but equally valuable alternatives, and third, Emergence: simultaneous engagement creates entirely new experiences. We propose the ACE cube framework that analyzes these patterns as continuous characteristics, and by integrating this analysis with technical requirements of commercial platforms, we provide practical guidelines for platform selection, technical investment prioritization, and cross-reality application development.


翻译:技术进步正在重新定义物理空间与虚拟空间之间的关系。传统上,当用户沉浸于虚拟现实时,他们与物理空间完全隔绝。同样地,在进行实体活动时,他们也无法访问虚拟体验。然而,现代多平台元宇宙环境允许用户通过移动设备同时参与,为整合式体验创造了新的机遇。本研究引入"跨现实生活方式"这一概念,以探讨用户如何主动结合其物理与虚拟活动。我们识别出三种整合模式:第一,增强模式:一个空间提升另一空间的体验;第二,互补模式:不同空间提供相异但同等有价值的替代选项;第三,涌现模式:同时参与创造出全新的体验。我们提出了ACE立方体框架,将这些模式分析为连续特征,并通过将此分析与商业平台的技术要求相结合,为平台选择、技术投资优先级排序以及跨现实应用开发提供了实用指导。

0
下载
关闭预览

相关内容

Integration:Integration, the VLSI Journal。 Explanation:集成,VLSI杂志。 Publisher:Elsevier。 SIT:http://dblp.uni-trier.de/db/journals/integration/
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员