The increasing device heterogeneity and decentralization requirements in the computing continuum (i.e., spanning edge, fog, and cloud) introduce new challenges in resource orchestration. In such environments, agents are often responsible for optimizing resource usage across deployed services. However, agent decisions can lead to persistent conflict loops, inefficient resource utilization, and degraded service performance. To overcome such challenges, we propose a novel framework for adaptive conflict resolution in resource-oriented orchestration using a Deep Reinforcement Learning (DRL) approach. The framework enables handling resource conflicts across deployments and integrates a DRL model trained to mediate such conflicts based on real-time performance feedback and historical state information. The framework has been prototyped and validated on a Kubernetes-based testbed, illustrating its methodological feasibility and architectural resilience. Preliminary results show that the framework achieves efficient resource reallocation and adaptive learning in dynamic scenarios, thus providing a scalable and resilient solution for conflict-aware orchestration in the computing continuum.


翻译:计算连续体(即涵盖边缘、雾和云计算)中日益增长的设备异构性和去中心化需求为资源编排带来了新的挑战。在此类环境中,代理通常负责优化已部署服务间的资源使用。然而,代理决策可能导致持续的冲突循环、资源利用效率低下以及服务性能下降。为应对这些挑战,我们提出了一种基于深度强化学习(DRL)的自适应冲突解决框架,用于面向资源的编排。该框架能够处理跨部署的资源冲突,并集成了一个经过训练的DRL模型,该模型基于实时性能反馈和历史状态信息来调解此类冲突。该框架已在基于Kubernetes的测试平台上完成原型实现与验证,展示了其方法可行性和架构弹性。初步结果表明,该框架在动态场景中实现了高效的资源重分配与自适应学习,从而为计算连续体中冲突感知的编排提供了可扩展且弹性的解决方案。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年7月7日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员