看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于多组并行深度Q网络的连续空间追逃博弈算法 收藏
基于多组并行深度Q网络的连续空间追逃博弈算法

基于多组并行深度Q网络的连续空间追逃博弈算法

作     者:刘冰雁 叶雄兵 岳智宏 董献洲 张其扬 LIU Bingyan;YE Xiongbing;YUE Zhihong;DONG Xianzhou;ZHANG Qiyang

作者机构:军事科学院北京100091 32032部队北京100094 

出 版 物:《兵工学报》 (Acta Armamentarii)

年 卷 期:2021年第42卷第3期

页      码:663-672页

摘      要:为解决连续空间追逃博弈(PEG)问题,提出一种基于多组并行深度Q网络(DQN)的连续空间PEG算法。应对连续行为空间中为避免传统强化学习存在的维数灾难不足,通过构建Takagi-Sugeno-Kang模糊推理模型来表征连续空间;为应对离散动作集自学习复杂且耗时不足,设计基于多组并行DQN的PEG算法。以4轮战车PEG问题为例设计仿真环境与运动模型,进行了运动计算,并与Q-learning算法、基于资格迹的强化学习算法、基于奖励的遗传算法结果相比对。仿真实验结果表明,连续空间PEG算法能够较好地解决连续空间PEG问题,且随着学习次数的增加不断提升问题处理能力,具备自主学习耗时少、追捕应用时间短的比较优势。

主 题 词:追逃博弈 连续空间 深度Q网络 神经网络 微分对策 智能战车 

学科分类:12[管理学] 1201[管理学-管理科学与工程类] 081104[081104] 08[工学] 0835[0835] 0811[工学-水利类] 0812[工学-测绘类] 

核心收录:

D O I:10.3969/j.issn.1000-1093.2021.03.024

馆 藏 号:203103132...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分