This study highlights the potential of image-based reinforcement learning methods for addressing swarm-related tasks. In multi-agent reinforcement learning, effective policy learning depends on how agents sense, interpret, and process inputs. Traditional approaches often rely on handcrafted feature extraction or raw vector-based representations, which limit the scalability and efficiency of learned policies concerning input order and size. In this work we propose an image-based reinforcement learning method for decentralized control of a multi-agent system, where observations are encoded as structured visual inputs that can be processed by Neural Networks, extracting its spatial features and producing novel decentralized motion control rules. We evaluate our approach on a multi-agent convergence task of agents with limited-range and bearing-only sensing that aim to keep the swarm cohesive during the aggregation. The algorithm's performance is evaluated against two benchmarks: an analytical solution proposed by Bellaiche and Bruckstein, which ensures convergence but progresses slowly, and VariAntNet, a neural network-based framework that converges much faster but shows medium success rates in hard constellations. Our method achieves high convergence, with a pace nearly matching that of VariAntNet. In some scenarios, it serves as the only practical alternative.


翻译:本研究凸显了基于图像的强化学习方法在解决集群相关任务方面的潜力。在多智能体强化学习中,有效的策略学习取决于智能体如何感知、解释和处理输入。传统方法通常依赖于手工特征提取或基于原始向量的表示,这限制了所学策略在输入顺序和大小方面的可扩展性和效率。在本工作中,我们提出了一种基于图像的强化学习方法,用于多智能体系统的去中心化控制,其中观测被编码为结构化视觉输入,可由神经网络处理,从而提取其空间特征并生成新颖的去中心化运动控制规则。我们在一个多智能体聚合任务上评估了我们的方法,该任务中的智能体具有有限距离和仅测向感知能力,旨在聚集过程中保持集群的凝聚力。该算法的性能通过两个基准进行评估:一是Bellaiche和Bruckstein提出的解析解,该解确保收敛但进展缓慢;二是VariAntNet,一种基于神经网络的框架,其收敛速度快得多,但在困难构型中成功率中等。我们的方法实现了高收敛性,其速度几乎与VariAntNet相当。在某些场景下,它是唯一可行的替代方案。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
面向视觉的强化学习综述
专知会员服务
21+阅读 · 2025年8月12日
基于学习机制的多智能体强化学习综述
专知会员服务
61+阅读 · 2024年4月16日
智能集群系统的强化学习方法综述
专知会员服务
83+阅读 · 2024年1月1日
「基于通信的多智能体强化学习」 进展综述
探索(Exploration)还是利用(Exploitation)?强化学习如何tradeoff?
深度强化学习实验室
13+阅读 · 2020年8月23日
强化学习的两大话题之一,仍有极大探索空间
AI科技评论
22+阅读 · 2020年8月22日
专家报告 | 融合数据先验知识的智能图像增强
中国图象图形学报
16+阅读 · 2020年5月25日
PlaNet 简介:用于强化学习的深度规划网络
谷歌开发者
13+阅读 · 2019年3月16日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员