standard download
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210427649.6 (22)申请日 2022.04.22 (71)申请人 浪潮软件集团有限公司 地址 250100 山东省济南市高新区科航路 2877号 (72)发明人 梁翔宇 李玉坤 段京峰 卢则兴  (74)专利代理 机构 济南信达专利事务所有限公 司 37100 专利代理师 阚恭勇 (51)Int.Cl. G06V 10/56(2022.01) G06V 10/774(2022.01) G06V 10/82(2022.01) G06K 9/62(2022.01) G06N 3/04(2006.01)G06V 20/40(2022.01) G06V 20/52(2022.01) (54)发明名称 一种视频下实时的行 人衣着颜色识别方法 (57)摘要 本发明提供一种视频下实时的行人衣着颜 色识别方法, 属于计算机视觉 领域和图像处理技 术领域, 本发明通过Yolo目标检测算法可以对行 人及行人衣着进行快速提取。 通过对图片进行随 机序列化, 将图片转化为元素序列, 将图片中的 结构信息及空间信息屏蔽, 保留图片的色彩信 息。 根据RGB ‑HSV色彩空间的转换, 对16777216种 RGB的值进行编码, 形成颜色词典。 根据颜色词典 的映射关系, 使用随机函数叠加算法进行训练图 片生成, 生成大量训练图片。 构建Seq2One模型, 去除传统的Seq2Seq模型中的注意力机制, 降低 解码器输出层神经元数量, 减少模型参数量, 提 高模型运行速度。 权利要求书1页 说明书5页 附图4页 CN 114842217 A 2022.08.02 CN 114842217 A 1.一种视频 下实时的行 人衣着颜色识别方法, 其特 征在于, 截取图片再截取; 通过RGB与HSV色彩空间转换构 建颜色词典, 以该词典为基础, 使用随 机函数叠加算法生成数据集; 图片序列化; 设计构建Seq2One模型, 使用随机函数叠加算法生成数据集进行训练, 使 用该模型对序列化图片进行颜色识别。 2.根据权利要求1所述的方法, 其特 征在于, 通过Yolo目标检测算法对行人及行人衣着进行提取; 通过对图片进行随机序列化, 将 图片转化为元素序列, 将图片中的结构信息及空间信息屏蔽, 保留图片的色彩信息 。 3.根据权利要求2所述的方法, 其特 征在于, 根据RGB‑HSV色彩空间的转换, 对16777216种RGB的值进行编码, 形成颜色词典; 根据颜 色词典的映射关系, 使用随机函数叠加算法生 成训练图片; 构建Seq2One模型, 去除Seq2Seq 模型中的注意力机制, 降低解码器输出层神经 元数量, 减少模型参数量。 4.根据权利要求3所述的方法, 其特 征在于, 先对色彩通道V进行判断, 后对色彩通道S进行判断, 最后对色彩通道H进行判断; 通过 以上判断顺序及判定逻辑可以准确的对每个RGB值进 行编码, 构成16777216种K ‑V键值对形 式的颜色词典; 该颜色词典的构建为使用随机函数叠加算法生成数据集构建查表指标。 5.根据权利要求1所述的方法, 其特 征在于, 图片序列化是将二维图片转换为一维序列, 将原图片中的每个RGB值作为一个独立的 单元转换为 一维数组中的每 个元素。 6.根据权利要求1所述的方法, 其特 征在于, 构建基于去注意力机制的Seq2One模型, 该模型由N  vs N的编码器以及N  vs1的解码器 组成, 以及 在头部设计嵌入firstFlat ten图片前处 理层, 此外在编码器前 添加Fuse算子 。 7.根据权利要求1所述的方法, 其特 征在于, 训练YoloV5目标检测模型: (1)使用人体 检测数据集训练Yo loV5人体检测模型, 选用Yo loV5s网络结构; (2)使用人体衣着数据集训练YoloV5衣着检测模型, 选用YoloV5s网络结构; 训练得到 的YoloV5衣着检测模型可以检测上衣、 下衣、 连衣裙三种衣着, 其中上衣包括各种长袖、 短 袖、 外套、 大衣, 下衣 包括各种短裤, 长裤, 短裙, 长裙; 对视频流传输过来的每帧的图片先经过YoloV5人体检测模型检测视频中的人体, 之后 使用YoloV5衣着 检测模型对检测到的人体进 行衣着检测, 检测得到上衣、 下衣或连衣裙, 对 检测得到的衣着进行截取 得到衣着图片。 8.根据权利要求7 所述的方法, 其特 征在于, 对YoloV5模型和Seq2One模型进行8 ‑bit量化, 使得该模型在大部分机器下可以实现视 频监控下实时的人体及衣着的检测。权 利 要 求 书 1/1 页 2 CN 114842217 A 2一种视频下实时的行人衣着颜色识别方 法 技术领域 [0001]本发明涉及计算机视觉领域和图像处理技术领域, 尤其涉及一种视频下实时的行 人衣着颜色识别方法。 背景技术 [0002]在计算机视觉涉及到 的各个领域中, 监控视频下的行人的精准识别尤为重要, 而 衣着颜色作为行 人的一个重要的属性, 是对行 人进行精准 化分析的一个关键要素。 [0003]而目前对行 人衣着颜色识别的方法有以下问题: [0004](1)一般通过目标检测算法或语义分割算法将行人及衣着从整体图片中截取出 来。 但语义分割算法是对图片 中每个像素点进行分类因此运行速度极慢、 在大部分机器上 很难达到视频监控中实时截取的速度要求, 而目标检测算法大部分使用传统的双阶段目标 检测算法, 如FAST ‑RCNN,FASTER ‑RCNN, 这类算法虽然相较于语义分割算法速度上得到了提 升, 但在部分机器上仍然无法达 到视频监控中实时截取的速度要求。 [0005](2)在将行人从图片中截取出来后, 通常使用聚类算法进行主颜色提取, 但聚类算 法大部分只能部署运行在CPU, 无法应用GPU算力进行运 算, 因此速度较慢。 [0006](3)在将行人的图片截取出来后, 通常使用卷积神经 网络进行颜色识别, 但由于卷 积神经网络对于图片的结构信息和空间信息较为敏感; 随着网络加深, 图片底层颜色信息 损失较大, 对于图片底层的颜色信息的学习理解能力较弱, 故对于干扰项较多的衣着颜色 识别的效果较差 。 发明内容 [0007]为了解决以上技术问题, 本发明提供了一种视频下实时的行人衣着颜色识别方 法。 该方法中的Yolo模 型及Seq2One模 型均可部署在GPU上运行且 经过模型量化极大提高了 模型的运行速度。 [0008]本发明的技 术方案是: [0009]一种视频 下实时的行 人衣着颜色识别方法, [0010]截取图片再截取; 通过RGB与HSV色彩空间转换构建颜色词典, 以该词典为基础, 使 用随机函数叠加算法生成数据集; [0011]图片序列化; 设计构建Seq2One模型, 使用随机函数叠加算法生成数据集进行训 练, 使用该模型对序列化图片进行颜色识别。 [0012]进一步的, [0013]通过Yolo目标检测算法对行人及行人衣着进行提取; 通过对图片进行随机序列 化, 将图片转 化为元素序列, 将图片中的结构信息及空间信息屏蔽, 保留图片的色彩信息; [0014]根据RGB‑HSV色彩空间的转换, 对16777216种RGB的值进行编 码, 形成颜 色词典; 根 据颜色词典的映射关系, 使用随机函数叠加算法, 生成训练图片; 构建  Seq2One模型, 去除 Seq2Seq模型中的注意力机制, 降低解码器输出层神经 元数量, 减少模型参数量。说 明 书 1/5 页 3 CN 114842217 A 3

.PDF文档 专利 一种视频下实时的行人衣着颜色识别方法

文档预览
中文文档 11 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共11页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种视频下实时的行人衣着颜色识别方法 第 1 页 专利 一种视频下实时的行人衣着颜色识别方法 第 2 页 专利 一种视频下实时的行人衣着颜色识别方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 07:00:27上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。