(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211267876.3 (22)申请日 2022.10.17 (71)申请人 郑州大学 地址 450001 河南省郑州市高新区科 学大 道100号 申请人 河南信通智能物联有限公司 (72)发明人 陈恩庆 胡天生 梁静 郭新  汪松 井中纪 王宏伟 张丽娟  张秀琳 朱广磊  (74)专利代理 机构 北京东方盛凡知识产权代理 有限公司 1 1562 专利代理师 高天星 (51)Int.Cl. G06T 7/246(2017.01) G06T 7/30(2017.01)G06T 7/50(2017.01) G06T 7/70(2017.01) G06T 7/80(2017.01) G06N 3/04(2006.01) (54)发明名称 一种基于RGB-D数据融合的测距 跟踪方法 (57)摘要 本发明涉及一种基于RGB ‑D数据融合的测距 跟踪方法, 包括: 采集待检测目标的RGB图像和深 度图像, 将所述RGB图像输入到改进 的YOLOv5网 络模型中, 对 所述待检测目标进行目标检测和跟 踪, 获取跟踪输出结果; 将所述跟踪输出结果与 所述深度图像进行配准, 获得所述待检测目标的 距离信息。 本发明利用RGB图像实现目标检测与 跟踪, 将目标跟踪阶段生 成的预测框映射到深度 相机采集的深度图像中, 完成对目标的测距和跟 随。 权利要求书2页 说明书7页 附图4页 CN 115511917 A 2022.12.23 CN 115511917 A 1.一种基于RGB ‑D数据融合的测距 跟踪方法, 其特 征在于, 包括: 采集待检测目标的RGB图像和深度图像, 将所述RGB图像输入到改进的YOLOv5网络模型 中, 对所述待检测目标进行目标检测 和跟踪, 获取跟踪输出 结果; 将所述跟踪输出 结果与所述深度图像进行配准, 获得 所述待检测目标的距离信息 。 2.根据权利要求1所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 采集所述 待检测目标的RGB图像和深度图像包括: 通过RGB‑D相机采集所述RGB图像, 基于深度相机采集所述深度图像, 在使用所述RGB ‑D 相机和所述深度相 机进行采集之前, 对相 机的各项参数进行标定, 并通过相 机的空间分布 信息, 分别得到RGB ‑D相机坐标和深度相机坐标获取到的图像与真实世界的坐标对应关系。 3.根据权利要求1所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 所述改进 的YOLOv5网络模型中利用可分离卷积代替普通卷积, 用于对特征数据进行遍历和卷积操 作; 并将原始YOLOv5网络模型中的CIOU损失函数替换为SIOU损失函数, 用于提升模型检测 的准确度。 4.根据权利 要求3所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 将所述RGB 图像输入到改进的YOLOv5网络模型中进行目标检测, 包括: 基于所述可分离卷积的方法对部分所述原始YOLOv5模型的组成模块进行改进后, 利用 改进后的各模块对 所述RGB图像进 行特征信息的提取和压缩; 其中, 所述特征信息的提取包 括利用Focus结构将图像信息由空间维度转换为通道维度, 使用不同的CSP结构对提取的特 征信息进行拼接, 利用SSP层分离上下文特征, 通过FPN对特征图进行融合以及利用金字塔 结构采用拼接的方式融合特征, 最终得到若干不同尺寸的特征图, 经替换后的SIoU损失函 数进行筛 选, 得到检测目标的分类信息以及所述检测目标在图像中的位置信息 。 5.根据权利要求1所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 对所述待 检测目标进行目标跟踪包括: 基于DeepSORT进行目标跟踪, 同时考虑待测目标间距和相似度特征, 并对新生成的跟 踪轨迹采取验证机制排除错误的预测结果, 得到所述待测目标的边界框信息, 即所述跟踪 输出结果; 其中所述验证机制包括 卡尔曼预测和监测匹配失败预测。 6.根据权利要求1所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 对所述跟 踪输出结果与所述深度图像进行配准包括: 基于RGB图像像素点和实际坐标系的映射关系, 对相机进行标定配准, 获取深度图像像 素点和所述实际坐标系的映射关系, 其中, 所述RGB图像像素点和实际坐标系的映射关系 为: Xr,Yr,Zr分别为空间坐标系中点的位置坐标, x,y分别为以相机采光孔作为真实三维世 界中坐标系的原点Oc, 构成的Oc‑XcYcZc三维坐标系下对应的目标点坐标p(Xw,Yw,Zw)映射到权 利 要 求 书 1/2 页 2 CN 115511917 A 2深度图中点的位置坐标,M2和M1分别表示深度成像模块的内部参数和外 部参数。 7.根据权利要求6所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 基于所述 深度图像像素点和所述 实际坐标系的映射关系, 对所述跟踪输出结果与所述深度图像进 行 配准; 其中, 所述深度图像 像素点和实际坐标系的映射关系为: Xr,Yr,Zr分别为空间坐标系中点的位置坐标, xd,yd分别为以相 机采光孔作为真实三维 世界中坐标系的原点Oc, 构成的Oc‑XcYcZc三维坐标系下对应的目标点坐标p(Zd,Yd,Zd)映射 到深度图中点的位置坐标,M3和M4分别表示深度成像模块的内部参数和外 部参数。 8.根据权利要求7所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 基于所述 深度图像 像素点和实际坐标系的映射关系, 得到深度图像和RGB图像的映射关系: 其中, xd,yd分别为映射到深度图中点的位置坐标, M1和M2分别表示相机的外部参数和内 部参数, M3和M4分别表示深度成像模块的内部参数和外 部参数, x,y为RGB图中的位置坐标。 9.根据权利要求8所述的基于RGB ‑D数据融合的测距跟踪方法, 其特征在于, 基于深度 图像和RGB图像的映射关系, 将所述跟踪输出结果转换到所述深度图像中, 对所述跟踪输出 结果区域内深度图像中的像素点距离求均值, 得到所述待检测目标的距离信息 。权 利 要 求 书 2/2 页 3 CN 115511917 A 3

PDF文档 专利 一种基于RGB-D数据融合的测距跟踪方法

文档预览
中文文档 14 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于RGB-D数据融合的测距跟踪方法 第 1 页 专利 一种基于RGB-D数据融合的测距跟踪方法 第 2 页 专利 一种基于RGB-D数据融合的测距跟踪方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-02-18 22:24:33上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。