系统工程与电子技术 ›› 2019, Vol. 41 ›› Issue (7): 1652-1657.doi: 10.3969/j.issn.1001-506X.2019.07.29
谢浩1, 郭爱煌1,2, 宋春林1, 焦润泽1
XIE Hao1, GUO Aihuang1,2, SONG Chunlin1, JIAO Runze1
摘要: 针对长期演进车辆(long term evolution-vehicle, LTE-V)下的车辆随机竞争接入网络容易造成网络拥塞的问题,提出基于深度强化学习(deep reinforcement learning,DRL)为LTE-V下的车辆接入最佳基站(evolved node B,eNB)的选择算法。使用LTE核心网中移动管理单元(mobility management entity,MME)作为代理,同时考虑网络侧负载与接收端接收速率,完成车辆与eNB的匹配问题,降低网络拥塞概率,减少网络时延。使用竞争双重深度Q网络(dueling-double deep Q-network,D-DDQN)来拟合目标动作-估值函数(action-value function,AVF),完成高维状态输入低维动作输出的转化。仿真表明,D-DDQN训练完成参数收敛后,LTE-V网络拥塞概率大幅下降,整体性能有较大提升。