看过本文的还看了

相关文献

该作者的其他文献

文献详情 >结合神经网络和Q(λ)-learning的路径规划方法 收藏
结合神经网络和Q(λ)-learning的路径规划方法

结合神经网络和Q(λ)-learning的路径规划方法

作     者:王健 张平陆 赵忠英 程晓鹏 WANG Jian;ZHANG Ping-lu;ZHAO Zhong-ying;CHENG Xiao-peng

作者机构:沈阳新松机器人自动化股份有限公司特种机器人BG沈阳110169 沈阳科技学院机械与交通工程系沈阳110167 

出 版 物:《自动化与仪表》 (Automation & Instrumentation)

年 卷 期:2019年第34卷第9期

页      码:1-4页

摘      要:Q-learning是一种经典的增强学习算法,简单易用且不需要环境模型;广泛应用于移动机器人路径规划。但在状态空间和动作空间较大时,经典的Q-learning算法存在学习效率低、收敛速度慢,容易陷入局部最优解等问题。通过引入神经网络模型,利用地图信息计算状态势值,从而优化了设计奖励函数。合理奖励函数为Q(λ)-learning算法提供了先验知识,避免训练中的盲目搜索,同时奖励函数激励避免了陷入局部最优解。仿真试验表明,改进的路径规划方法在收敛速度方面有很大的提升,训练得到的路径为全局最优。

主 题 词:路径规划 神经网络 强化学习 移动机器人 奖励函数 

学科分类:12[管理学] 1201[管理学-管理科学与工程类] 080202[080202] 08[工学] 081104[081104] 0804[工学-材料学] 0802[工学-机械学] 0835[0835] 0811[工学-水利类] 0812[工学-测绘类] 

D O I:10.19557/j.cnki.1001-9944.2019.09.001

馆 藏 号:203778435...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分