The problem with existing camera-based Deep Reinforcement Learning approaches is twofold: they rarely integrate high-level scene context into the feature representation, and they rely on rigid, fixed reward functions. To address these challenges, this paper proposes a novel pipeline that produces a neuro-symbolic feature representation that encompasses semantic, spatial, and shape information, as well as spatially boosted features of dynamic entities in the scene, with an emphasis on safety-critical road users. It also proposes a Soft First-Order Logic (SFOL) reward function that balances human values via a symbolic reasoning module. Here, semantic and spatial predicates are extracted from segmentation maps and applied to linguistic rules to obtain reward weights. Quantitative experiments in the CARLA simulation environment show that the proposed neuro-symbolic representation and SFOL reward function improved policy robustness and safety-related performance metrics compared to baseline representations and reward formulations across varying traffic densities and occlusion levels. The findings demonstrate that integrating holistic representations and soft reasoning into Reinforcement Learning can support more context-aware and value-aligned decision-making for autonomous driving.


翻译:现有基于摄像头的深度强化学习方法存在双重问题:它们很少将高层场景上下文整合到特征表征中,且依赖于僵化的固定奖励函数。为应对这些挑战,本文提出一种新型处理流程,能够生成包含语义、空间与形状信息以及场景中动态实体空间增强特征的神经符号特征表征,并重点关注安全关键道路使用者。同时提出一种软一阶逻辑奖励函数,通过符号推理模块平衡人类价值。该方法从分割图中提取语义与空间谓词,并将其应用于语言规则以获得奖励权重。在CARLA仿真环境中的定量实验表明,相较于基线表征与奖励方案,所提出的神经符号表征与软一阶逻辑奖励函数在不同交通密度与遮挡水平下均提升了策略鲁棒性及安全相关性能指标。研究结果表明,将整体性表征与软推理整合至强化学习中,能够为自动驾驶提供更具情境感知能力且符合价值取向的决策支持。

0
下载
关闭预览

相关内容

脉冲强化学习算法研究综述
专知会员服务
48+阅读 · 2023年10月6日
【ICML2023】表示驱动强化学习
专知会员服务
39+阅读 · 2023年6月2日
基于内在动机的深度强化学习探索方法综述
专知会员服务
40+阅读 · 2023年5月13日
结合进化算法的深度强化学习方法研究综述
专知会员服务
81+阅读 · 2022年7月16日
专知会员服务
52+阅读 · 2021年4月6日
专知会员服务
139+阅读 · 2021年1月13日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
176+阅读 · 2020年2月8日
强化学习《奖励函数设计: Reward Shaping》详细解读
深度强化学习实验室
19+阅读 · 2020年9月1日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
【强化学习】强化学习/增强学习/再励学习介绍
产业智能官
10+阅读 · 2018年2月23日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月15日
VIP会员
最新内容
《人工智能赋能电磁战》(报告)
专知会员服务
2+阅读 · 今天14:47
【CMU博士论文】迈向可扩展的开放世界三维感知
专知会员服务
1+阅读 · 今天14:06
前馈式三维场景建模
专知会员服务
1+阅读 · 今天14:03
(译文)认知战:以士兵为目标,塑造战略
专知会员服务
3+阅读 · 今天3:12
相关VIP内容
脉冲强化学习算法研究综述
专知会员服务
48+阅读 · 2023年10月6日
【ICML2023】表示驱动强化学习
专知会员服务
39+阅读 · 2023年6月2日
基于内在动机的深度强化学习探索方法综述
专知会员服务
40+阅读 · 2023年5月13日
结合进化算法的深度强化学习方法研究综述
专知会员服务
81+阅读 · 2022年7月16日
专知会员服务
52+阅读 · 2021年4月6日
专知会员服务
139+阅读 · 2021年1月13日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
176+阅读 · 2020年2月8日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员