Understanding affect is central to anticipating human behavior, yet current egocentric vision benchmarks largely ignore the person's emotional states that shape their decisions and actions. Existing tasks in egocentric perception focus on physical activities, hand-object interactions, and attention modeling - assuming neutral affect and uniform personality. This limits the ability of vision systems to capture key internal drivers of behavior. In this paper, we present egoEMOTION, the first dataset that couples egocentric visual and physiological signals with dense self-reports of emotion and personality across controlled and real-world scenarios. Our dataset includes over 50 hours of recordings from 43 participants, captured using Meta's Project Aria glasses. Each session provides synchronized eye-tracking video, headmounted photoplethysmography, inertial motion data, and physiological baselines for reference. Participants completed emotion-elicitation tasks and naturalistic activities while self-reporting their affective state using the Circumplex Model and Mikels' Wheel as well as their personality via the Big Five model. We define three benchmark tasks: (1) continuous affect classification (valence, arousal, dominance); (2) discrete emotion classification; and (3) trait-level personality inference. We show that a classical learning-based method, as a simple baseline in real-world affect prediction, produces better estimates from signals captured on egocentric vision systems than processing physiological signals. Our dataset establishes emotion and personality as core dimensions in egocentric perception and opens new directions in affect-driven modeling of behavior, intent, and interaction.


翻译:理解情感是预测人类行为的关键,然而当前的自我中心视觉基准数据集大多忽略了影响个体决策与行动的情感状态。现有的自我中心感知任务主要关注身体活动、手-物交互和注意力建模——这些任务通常假设情感中立且人格一致。这限制了视觉系统捕捉行为关键内在驱动因素的能力。本文提出了egoEMOTION,这是首个在受控场景与真实世界场景中,将自我中心视觉信号、生理信号与密集自我报告的情感及人格数据相结合的数据集。我们的数据集包含来自43名参与者的超过50小时记录,使用Meta的Project Aria眼镜采集。每个会话提供同步的眼动追踪视频、头戴式光电容积脉搏波、惯性运动数据以及参考生理基线。参与者在完成情感诱发任务和自然活动的同时,使用环状模型和Mikels情感轮进行情感状态自我报告,并通过大五人格模型报告人格特质。我们定义了三个基准任务:(1)连续情感分类(效价、唤醒度、支配度);(2)离散情感分类;(3)特质层面人格推断。研究表明,在真实世界情感预测中,作为简单基线的经典学习方法,通过处理自我中心视觉系统采集的信号比处理生理信号能产生更优的估计结果。本数据集确立了情感与人格作为自我中心感知的核心维度,并为行为、意图与交互的情感驱动建模开辟了新方向。

0
下载
关闭预览

相关内容

具身智能中的心理世界建模:深度综述
专知会员服务
32+阅读 · 1月10日
多模态对话情感识别:方法、趋势、挑战与前景综述
专知会员服务
20+阅读 · 2025年5月28日
最新「注意力机制」大综述论文,66页pdf569篇文献
专知会员服务
210+阅读 · 2021年4月2日
情感计算综述
人工智能学家
34+阅读 · 2019年4月6日
交互设计理论:视觉感知、认知摩擦、认知负荷和情境认知
人人都是产品经理
20+阅读 · 2018年5月10日
【团队新作】连续情感识别,精准捕捉你的小情绪!
中国科学院自动化研究所
16+阅读 · 2018年4月17日
干货|基于双流递归神经网络的人体骨架行为识别!
全球人工智能
13+阅读 · 2017年12月15日
特定目标情感分析——神经网络这是要逆天么
计算机研究与发展
14+阅读 · 2017年9月5日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月8日
VIP会员
最新内容
《对信息环境分析实现人工智能预测冲突》96页
专知会员服务
2+阅读 · 今天9:59
《面向海军应用的无人机网络安全仿真环境》
专知会员服务
2+阅读 · 今天9:41
无人机与僵局:俄乌战争难以突破
专知会员服务
3+阅读 · 今天9:02
《控制对手感知:电子战愿景与赋能技术》
专知会员服务
4+阅读 · 今天8:51
自主、人工智能与可消耗集群时代的海军情报
专知会员服务
8+阅读 · 4月6日
“史诗狂怒行动”中的海军动态
专知会员服务
10+阅读 · 4月5日
相关VIP内容
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员