|国家科技期刊平台
首页|期刊导航|重庆邮电大学学报(自然科学版)|MEC架构下基于DDPG的车联网任务卸载和资源分配

MEC架构下基于DDPG的车联网任务卸载和资源分配OACSTPCD

DDPG-based computation offloading and resource allocation in MEC-enabled internet of vehicles

中文摘要英文摘要

为了缓解车联网中个体车辆计算资源配置过低而导致的任务处理时延较大的问题,提出了一种移动边缘计算(mobile edge computing,MEC)架构下的动态任务卸载策略和资源分配方案.以最小化全网任务处理时延为目标,将车联网中的任务卸载和资源分配问题建模为马尔可夫决策过程(Markov decision process,MDP),并利用深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法进行了问题求解.仿真结果表明,与执行者-评价者(actor-critic,AC)和深度Q网络(deep Q-network,DQN)这 2 种算法相比,DDPG算法以最快的算法收敛特性获得最小的全网任务处理时延.

To alleviate the severe task processing delay caused by insufficient computing resources of individual vehicle in the MEC-enabled internet of vehicles,a dynamic joint computation offloading and resource allocation scheme was proposed.With the goal of minimizing the holistic task processing delay in the internet of vehicles,the problem of joint computation offloading and resource allocation was modeled as a Markov decision process(MDP),and then the problem was further solved using a deep deterministic policy gradient(DDPG)algorithm.The simulation results show that compared with the actor-critic(AC)and deep Q-network(DQN)algorithms,the proposed DDPG algorithm attains the holistic task process-ing delay minimum with superior convergence.

杨金松;孙三山;刘莉;熊有志;冯波涛;陆凌蓉

四川师范大学 物理与电子工程学院,成都 610101四川师范大学 物理与电子工程学院,成都 610101||电子科技大学 通信抗干扰技术国家级重点实验室,成都 611731深圳大学 电子与信息工程学院,广东 深圳 518060UT斯达康通讯有限公司,杭州 310053

电子信息工程

车联网移动边缘计算马尔可夫决策过程深度确定性策略梯度

internet of vehiclesmobile edge computingMarkov decision processdeep deterministic strategy gradient

《重庆邮电大学学报(自然科学版)》 2024 (002)

259-267 / 9

中央高校科研经费项目(ZYGX2020ZB044);四川省自然科学基金项目(2022NSFSC0480) The Fundamental Research Funds for Central Universities(ZYGX2020ZB044);The Natural Science Foundation of Sichuan Province(2022NSFSC0480)

10.3979/j.issn.1673-825X.202212290381

评论