(19)国家知识产权局
(12)发明 专利
(10)授权公告 号
(45)授权公告日
(21)申请 号 202210996609.3
(22)申请日 2022.08.19
(65)同一申请的已公布的文献号
申请公布号 CN 115063594 A
(43)申请公布日 2022.09.16
(73)专利权人 清驰(济南)智能科技有限公司
地址 250215 山东省济南市章 丘区双山 街
道经十东路7888号双创基地1号楼9层
9001-2室
(72)发明人 刘超
(74)专利代理 机构 北京远立知识产权代理事务
所(普通合伙) 11502
专利代理师 李海燕
(51)Int.Cl.
G06V 10/26(2022.01)
G06V 10/74(2022.01)
G06V 10/762(2022.01)
G06V 10/80(2022.01)
(56)对比文件
CN 110008848 A,2019.07.12
CN 114693924 A,202 2.07.01
CN 112712066 A,2021.04.27CN 111415373 A,2020.07.14
CN 113111722 A,2021.07.13
US 2022148184 A1,202 2.05.12
Di Chen et al.Perso n Search via A
Mask-guided Tw o-stream CN N Model.
《Proceedings of the European Co nference
on Computer Visi on (ECCV)》 .2018,
李伟.基于深度学习的遥感图像 语义分割方
法研究. 《中国优秀硕士学位 论文全文数据库 (电
子期刊) 》 .202 2,第2022年卷(第0 3期),
宗岩.改进的基 于特征点的图像拼接融合 算
法. 《兰州交通大 学学报》 .2012,第31卷(第1期),
郑阳.融合视 觉的激光雷达点云 分割与检
测. 《中国优秀硕士学位 论文全文数据库 (电子期
刊) 》 .202 2,第2022年卷(第02期),
Yi Li et al.Ful ly convolutional
instance-aware semantic segmentati on.
《Proceedings of the IE EE Conference o n
Computer Visi on and Pat tern Recogn ition
(CVPR)》 .2017,
张慧美.基 于联合框架和分离 框架的行 人搜
索算法研究. 《中国优秀硕士学位 论文全文数据
库 (电子期刊) 》 .2021,第2021年卷(第0 3期),
审查员 宋海荣
(54)发明名称
一种基于自动驾驶的特 征提取方法及装置
(57)摘要
本发明涉及辅助驾驶技术领域, 提供一种基
于自动驾驶的特征提取方法及装置, 所述方法包
括: 获取目标区域的原始图像; 将所述原始图像
输入至预先训练的语义分割模型中, 以基于得到
目标物体区域和非目标物体区域的二分类图片;
将二分类图片作为掩膜, 与对应的原始图像相结
合, 以获得目标区域的融合图像; 利用尺度不变
特征变换算法提取所述融合图像中的目标特征
点; 其中, 所述语义分割模型是基于原始图像样
本输入二分类 分割网络训练得到的。 解决了现有技术中车辆行驶环境中特征点提取的准确性较
差, 且特征点筛选的计算 量较大的技 术问题。
权利要求书3页 说明书8页 附图2页
CN 115063594 B
2022.12.13
CN 115063594 B
1.一种基于自动驾驶的特 征提取方法, 其特 征在于, 所述方法包括:
获取目标区域的原 始图像;
将所述原始图像输入至预先训练的语义分割 模型中, 以基于得到目标物体区域和非 目
标物体区域的二分类图片;
将二分类图片作为掩膜, 与对应的原 始图像相结合, 以获得目标区域的融合图像;
利用尺度不变特 征变换算法提取 所述融合图像中的目标 特征点;
其中, 所述语义分割模型 是基于原 始图像样本 输入二分类分割网络训练得到的;
利用尺度不变特 征变换算法提取 所述融合图像中的目标 特征点, 具体包括:
利用尺度不变特 征变换算法提取 所述融合图像中的当前 特征点;
将所述当前特征点与下一时刻的融合图像进行特征匹配, 得到匹配特征点集, 并计算
当前融合图像与下一时刻的融合图像中的特 征点所对应的深度, 以得到深度图;
基于聚类算法, 将所述深度图分割为多个聚类区域, 并统计各聚类区域内的内点数和
点数比例;
将深度图中动态区域内的像素设为1, 其 他区域像素 赋值为0, 得到二 值图;
将所述二值图作为掩膜, 与原始图像结合以去除运动 状态的物体, 并提取SIFT特征点,
以得到所述目标 特征点;
基于聚类算法, 将所述深度图分割为多个聚类区域, 并统计各聚类区域内的内点数和
点数比例, 具体包括:
利用K均值聚类, 将深度图分割为多个物体区域, 统计在各个聚类区域内的内点数
和比例
;
统计各聚类区域内的内点数和点数比例, 之后还 包括:
通过迭代求解基础矩阵进行第一次筛选, 以筛选出特征点中的第一组内点并剔除外
点, 统计在各个聚类区域内的第一组内点中的内点数
和比例
;
通过迭代求解基础矩阵对所述第 一组内点进行第 二次筛选, 以筛选出特征点中的第 二
组内点并剔除外点, 统计在各个聚类区域内的第二组内点中的内点数
和比例
;
第i个聚类区域若同时满足以下三个条件, 则判定该区域 为动态物体区域:
式中,
和
为设定的取值范围为0 ‑100的阈值。
2.根据权利要求1所述的基于自动驾驶的特征提取方法, 其特征在于, 得到目标物体区
域和非目标物体区域的二分类图片, 之后还 包括:
为所述目标物体区域的像素点设置第 一标签值, 为所述非 目标物体区域的像素点设置权 利 要 求 书 1/3 页
2
CN 115063594 B
2第二标签值。
3.根据权利要求1所述的基于自动驾驶的特征提取方法, 其特征在于, 利用以下公式,
计算当前融合图像与下一时刻的融合图像中的特 征点所对应的深度:
式中, B为双目摄像机 的基线长度, f为摄像机的焦距, disparity代表该点对应的视差
值。
4.一种基于自动驾驶的特 征提取装置, 其特 征在于, 所述装置包括:
图像获取 单元, 用于获取目标区域的原 始图像;
图像分割单元, 用于将所述原始图像输入至预先训练的语义分割模型中, 以基于得到
目标物体区域和非目标物体区域的二分类图片;
图像融合单元, 用于将二分类图片作为掩膜, 与对应的原始图像相结合, 以获得目标区
域的融合图像;
特征提取单元, 用于利用尺度不变特 征变换算法提取 所述融合图像中的目标 特征点;
其中, 所述语义分割模型 是基于原 始图像样本 输入二分类分割网络训练得到的;
利用尺度不变特 征变换算法提取 所述融合图像中的目标 特征点, 具体包括:
利用尺度不变特 征变换算法提取 所述融合图像中的当前 特征点;
将所述当前特征点与下一时刻的融合图像进行特征匹配, 得到匹配特征点集, 并计算
当前融合图像与下一时刻的融合图像中的特 征点所对应的深度, 以得到深度图;
基于聚类算法, 将所述深度图分割为多个聚类区域, 并统计各聚类区域内的内点数和
点数比例;
将深度图中动态区域内的像素设为1, 其 他区域像素 赋值为0, 得到二 值图;
将所述二值图作为掩膜, 与原始图像结合以去除运动 状态的物体, 并提取SIFT特征点,
以得到所述目标 特征点;
基于聚类算法, 将所述深度图分割为多个聚类区域, 并统计各聚类区域内的内点数和
点数比例, 具体包括:
利用K均值聚类, 将深度图分割为多个物体区域, 统计在各个聚类区域内的内点数
和比例
;
统计各聚类区域内的内点数和点数比例, 之后还 包括:
通过迭代求解基础矩阵进行第一次筛选, 以筛选出特征点中的第一组内点并剔除外
点, 统计在各个聚类区域内的第一组内点中的内点数
和比例
;
通过迭代求解基础矩阵对所述第 一组内点进行第 二次筛选, 以筛选出特征点中的第 二
组内点并剔除外点, 统计在各个聚类区域内的第二组内点中的内点数
和比例
;
第i个聚类区域若同时满足以下三个条件, 则判定该区域 为动态物体区域:权 利 要 求 书 2/3 页
3
CN 115063594 B
3
专利 一种基于自动驾驶的特征提取方法及装置
文档预览
中文文档
14 页
50 下载
1000 浏览
0 评论
0 收藏
3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 SC 于 2024-02-18 22:28:48上传分享