看过本文的还看了

相关文献

该作者的其他文献

文献详情 >融合点云和多视图的车载激光点云路侧多目标识别 收藏
融合点云和多视图的车载激光点云路侧多目标识别

融合点云和多视图的车载激光点云路侧多目标识别

作     者:方莉娜 沈贵熙 游志龙 郭迎亚 付化胜 赵志远 陈崇成 FANG Lina;SHEN Guixi;YOU Zhilong;GUO Yingya;FU Huasheng;ZHAO Zhiyuan;CHEN Chongcheng

作者机构:福州大学数字中国研究院(福建)福建福州350002 福州大学计算机与大数据学院福建福州350002 福建省水利水电勘测设计研究院福建福州350002 

基  金:国家自然科学基金(42071446,61801121) 福建省对外合作项目(202010007) 

出 版 物:《测绘学报》 (Acta Geodaetica et Cartographica Sinica)

年 卷 期:2021年第50卷第11期

页      码:1558-1573页

摘      要:城市环境中的行道树、车辆、杆状交通设施是重要的交通地物,也是智能交通,导航与位置服务,自动驾驶和高精地图等行业应用的核心要素。为了准确识别这些路侧目标,本文提出一种融合点云和多视角图像的深度学习模型PGVNet(point-group-view network),充分利用目标点云数据中空间几何信息及其多视角图像中高级全局特征提升路侧行道树、车辆和杆状设施的分类精度。为了减少视图间的冗余信息并增强显著视图特征,PGVNet模型利用预训练的VGG网络提取多视图特征,对其进行分组赋权获取最优视图特征;采用嵌入注意力机制的融合策略,利用最优视图特征动态调整PGVNet模型对点云不同局部关系的注意力度,学习不同路侧目标的多层次、多尺度显著特征,实现行道树、车辆和杆状交通设施的精确分类。试验采用5份不同车载激光扫描系统获取的不同城市场景数据验证本文方法的有效性,其中行道树、车辆及杆状交通设施分类结果中的准确率、召回率、精度和F_(1)指数分别达(99.19%、94.27%、93.58%、96.63%);(94.20%、97.56%、92.02%、95.68%);(91.48%、98.61%、90.39%、94.87%)。结果表明,本文方法融合多视图全局信息和点云局部结构特征可以有效区分城市场景中的行道树、车辆和杆状交通设施,可为高精度地图中要素构建与矢量化提供数据支撑。

主 题 词:车载激光扫描系统 点云分类 多视角图像 深度学习 注意力机制 

学科分类:083002[083002] 0830[工学-生物工程类] 081802[081802] 08[工学] 0818[工学-交通运输类] 081602[081602] 0816[工学-纺织类] 

核心收录:

D O I:10.11947/j.AGCS.2021.20210246

馆 藏 号:203106489...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分