standard download
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211198186.7 (22)申请日 2022.09.29 (71)申请人 天津师范大学 地址 300387 天津市西青区 宾水西道393号 (72)发明人 韩婷婷 钟红梅  (74)专利代理 机构 北京中政联科专利代理事务 所(普通合伙) 11489 专利代理师 陈超 (51)Int.Cl. G06V 40/16(2022.01) G06V 10/82(2022.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种基于YOLOv5l和注意力机制的实时表情 识别方法 (57)摘要 本发明公开了一种基于YOLOv5l和注 意力机 制的实时表情识别方法, 所述方法包括: 获取训 练图像和验证图像; 使用所述训练图像对原始 YOLOv5l模型进行预训练, 得到原始YOLOv5l模型 的预训练权重; 将注意力机制加入到原始 YOLOv5l模型的主干网结构中, 得到改进YOL Ov5l 模型; 使用所述训练图像和预训练权重对于所述 改进YOLOv5l模型进行重新训练, 得到所述改进 YOLOv5l模型的新训练权重; 利用具有新训练权 重的改进YOL Ov5l模型对于目标对象的表情进行 检测。 本发明结合通道和空间注意力机制, 不仅 实现了目标表情实时识别的功能, 提升了表情识 别的准确率, 还提升 了表情识别的速度。 权利要求书2页 说明书8页 附图5页 CN 115497140 A 2022.12.20 CN 115497140 A 1.一种基于 YOLOv5l和注意力机制的实时表情识别方法, 其特 征在于: 步骤S1: 获取训练图像和验证图像; 步骤S2: 使用所述训练图像对原始YOLOv5l模型进行预训练, 得到原始YOLOv5l模型的 预训练权 重; 步骤S3: 将注意力机制加入到原始YOLOv5l模型的主干网结构中, 得到改进YOLOv5l模 型; 步骤S4: 使用所述训练图像和预训练权重对于所述改进YOLOv5l模型进行重新训练, 得 到所述改进YOLOv5l模型的新训练权 重; 步骤S5: 利用具有新训练权 重的改进YOLOv5l模型对于目标对象的表情进行检测。 2.根据权利要求1所述的方法, 其特 征在于, 所述 步骤S1包括以下步骤: 步骤S1‑1, 对于公开数据集中的图像根据预设规则进行筛 选; 步骤S1‑2, 对于筛选得到的图像进行 校对和标注, 得到图像对应的表情标签数据; 步骤S1‑3, 将标注完成的图像划分为训练图像和验证图像。 3.根据权利要求1所述的方法, 其特征在于, 在步骤S3中, 在 所述原始YOLOv5l模型主干 网结构中每个卷积残差网络CSP1_X模块的每个标准卷积CBS模块后加入注意力机制, 得到 改进YOLOv5l模型。 4.根据权利要求3所述方法, 所述改进YOLOv5l模型包括依次连接的Focus模块、 第一 CBS模块、 CSP1_1A模块、 第 二CBS模块、 第 一CSP1_3A模块、 第 三CBS模块、 第 二CSP1_3A模块、 第四CBS模块、 空间金字塔池化SPP模块、 第一CSP2_1模块、 第五CBS模块、 第一上采样 Unsample模块、 第一拼接Concat模块、 第二CSP2 _1模块、 第六CBS 模块、 第二上采样U nsample 模块、 第二拼接Concat模块、 第三CSP2_1模块、 第一卷积模块Conv、 第七CBS模块、 第三拼接 Concat模块、 第四CSP2_1模块、 第二卷积模块Conv、 第八CBS模块、 第四拼接Concat模块、 第 五CSP2_1模块、 第三卷积模块Conv, 其中, 所述第一上采样Unsample模块的输出与第二 CSP1_3A模块的输出拼接并输入第一拼接Concat模块; 第二上采样Unsample模块的输出与 第一CSP1_3A模块的输出拼接并输入第二拼接Concat模块; 第三CSP2_1模块的输出输入第 一卷积模块Conv的输入端, 第一卷积模块Conv的输出作为所述改进YOLOv5l模型的第一输 出结果; 第四CSP2_1模块的输出输入第二卷积模块Conv的输入端, 第二卷积模块Conv的输 出作为所述改进YOLOv5l模型的第二输出结果; 第五CSP2_1模块的输出输入第三卷积模块 Conv的输入端, 第三卷积模块Co nv的输出作为所述改进YOLOv5l模型的第三输出 结果。 5.根据权利要求1所述方法, 其特征在于, 在步骤S3中, 在所述原始YOLOv5l模型主干 网 结构中的Focus模块后加入注意力机制, 或者在所述原始Y OLOv5l模 型主干网结构中的每个 CBS模块后加入注意力机制, 或者在所述原始YOLOv5l模型主干网结构中的SPP模块后加入 注意力机制, 或者在所述原始YOLOv5l模型主干网结构中的Focus模块和SPP模块后分别加 入注意力机制, 或者在所述原始YOLOv5l模型主干网结构中的每个CBS模块和SPP模块后分 别加入注意力机制, 或者在所述原始YOLOv5l模型主干网结构中的Focus模块和每个CBS模 块后分别加入注 意力机制, 或者在所述原始YOLOv5l模 型主干网结构中的每个CBS模块和每 个CSP1_X模块的每个标准卷积 CBS模块后分别加入注意力机制, 或者在所述原始YOLOv5l模 型主干网结构中的Focus模块、 每个CBS模块、 每个CSP1_X模块的每个标准卷积 CBS模块后和 SPP模块后分别加入注意力机制。权 利 要 求 书 1/2 页 2 CN 115497140 A 26.根据权利要求1所述的方法, 其特征在于, 在步骤S4中, 在对于所述改进YOLOv5l模型 进行重新训练时, 将所述训练图像输入到所述改进YOLOv5l模型中, 通过调整模型的学习 率、 动量、 迭代次数来实现对于所述改进YOLOv5l模型的重新训练。 7.根据权利要求1所述的方法, 其特 征在于, 所述 步骤S5包括以下步骤: 步骤S5‑1: 加载具有新训练权 重的改进YOLOv5l模型; 步骤S5‑2: 通过界面选择识别数据来源, 其中, 所述数据来源 包括摄像头或本地视频; 步骤S5‑3: 若选择摄像头, 则打开摄像头, 输入表情识别结果保存位置, 若检测到目标 对象表情, 则使用矩形框将目标对象脸部自动框选出来, 同时界面显示表情识别结果, 并可 选择打印表情识别结果日志; 若选择本地视频, 则打开本地视频, 输入识别帧数以及表情识 别结果保存位置, 若检测到目标对象表情, 则使用矩形框将目标对象脸部自动框选出来, 同 时界面显示表情识别结果, 并可选择打印表情识别结果日志。权 利 要 求 书 2/2 页 3 CN 115497140 A 3

.PDF文档 专利 一种基于YOLOv5l和注意力机制的实时表情识别方法

文档预览
中文文档 16 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共16页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于YOLOv5l和注意力机制的实时表情识别方法 第 1 页 专利 一种基于YOLOv5l和注意力机制的实时表情识别方法 第 2 页 专利 一种基于YOLOv5l和注意力机制的实时表情识别方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 16:15:45上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。