(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202210852309.8
(22)申请日 2022.07.19
(71)申请人 武汉理工大 学
地址 430070 湖北省武汉市洪山区珞狮路
122号
(72)发明人 王贞 邱杭 王宇向 贾学军
(74)专利代理 机构 武汉开元知识产权代理有限
公司 42104
专利代理师 刘琳
(51)Int.Cl.
G06V 20/40(2022.01)
G06V 10/762(2022.01)
G06V 10/82(2022.01)
G06V 10/764(2022.01)
G06T 7/246(2017.01)G06N 3/04(2006.01)
G06N 3/08(2006.01)
G06N 3/12(2006.01)
(54)发明名称
一种施工场景下的安全帽佩戴检测方法及
系统
(57)摘要
本申请公开了一种安全帽佩戴检测方法及
系统, 包括数据采集模块、 目标检测模块、 目标跟
踪模块和摄像 设备自动控制模块, 在公开的安全
帽佩戴检测数据集基础上添加现场监控图像, 经
数据增强后得到新的数据集; 构建安全帽佩戴检
测网络, 同时用遗传算法优化初始锚框和超参数
后训练该网络获得安全帽佩戴检测模 型; 随后将
目标跟踪算法和监控设备相结合实现摄像设备
对目标作业人员的自动跟踪。 跟踪算法对目标的
运动轨迹 特征进行自动分析和提取, 考虑了帧间
关联性, 从而弥补视觉目标检测方法的不足, 提
高检测准确度以及小目标的识别度。 本发明可有
效解决施工环境下小目标漏检问题与复杂背景
下的误检问题, 实现摄像设备对违规目标的自动
跟踪检测。
权利要求书3页 说明书11页 附图5页
CN 115171022 A
2022.10.11
CN 115171022 A
1.一种施工场景 下的安全帽佩戴检测方法, 其特 征在于, 包括以下步骤:
步骤S1: 构建安全帽佩戴检测数据集;
步骤S2: 改进YOLOv5目标检测算法, 构建安全帽佩戴检测网络;
步骤S3: 通过K ‑means聚类算法和遗传算法对所述安全帽佩戴检测网络的初始锚框尺
寸进行优化, 并采用遗传算法优化所述 安全帽佩戴检测网络的超参数;
步骤S4: 采用所述安全帽佩戴检测数据集对步骤S2得到的安全帽佩戴检测网络进行训
练, 得到权重文件, 并构建安全帽 检测模型;
步骤S5: 基于所述安全帽检测模型和DeepSort目标跟踪算法, 实时检测工地视频帧图
像, 对当前所述帧图像中的目标人物进行标注生成目标检测框; 并对所述 目标人物分配不
同的ID, 进行 特征提取、 持续跟踪并获取目标轨 迹;
步骤S6: 在持续跟踪过程中, 基于所述安全帽检测模型识别未佩戴安全帽的重点目标,
并将所述重点目标区分为违规目标A和难以识别的潜在违规目标B, 当所述重点目标连续5
帧以上满足未佩戴安全帽的判定情况时, 对所述重点目标进行跟踪放大, 继续进行检测;
步骤S7: 当所述重点目标存在未佩戴安全帽的违规行为时, 对所述重点目标进行抓拍
并预警。
2.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S1
包括以下步骤:
步骤S11: 以公开的GDUT ‑HWD安全帽检测数据集为基础, 并添加施工现场监控视频采
集、 筛选、 整理后的信息图像;
步骤S12: 对所述信息图像进行预处理: 对图像进行随机水平/垂直翻转、 旋转、 裁剪、 缩
放操作;
步骤S13: 使用labeling对处理后的图像进行标注, 安全帽为蓝色标注blue, 安全帽为
黄色标注yellow, 安全帽为 白色标注white、 安全帽为红色标注red, 没有佩戴安全帽标注
none, 构建安全帽佩戴检测数据集。
3.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S2
具体包括: 在YOLOv5算法的大、 中、 小三尺度预测的基础上, 在Neck层继续对原始特征图进
行上采样, 并与包含更多细节信息的浅层特征图拼接融合, 进而将三尺度预测的结构改为
四尺度预测, 并利用深度学习框架pytorc h构建安全帽佩戴检测网络 。
4.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S3
包括以下步骤:
步骤S31: 使用K ‑means聚类算法对所述安全帽佩戴检测数据集的目标框的高宽进行 聚
类, 获取十二组初始锚框;
步骤S32: 使用遗传算法对获取的十二组所述初始锚框进行优化, 选择最佳可能召回率
BPR作为优化过程中的适应度函数, 当初始锚框的适应度函数小于 设定值时, 利用遗传算法
对初始锚框进行优化, 并选择优化10 00轮中适应度函数最高的初始锚框;
步骤S33: 使用遗传算法, 选择适应度函数最高的个 体作为最优超参数。
5.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S4
具体为: 将步骤S 3中得到的初始锚框和步骤S4中获得的超参数输入 所述安全帽佩戴检测网
络; 并将所述安全帽佩戴检测数据集输入所述安全帽佩戴检测网络进行训练, 得到权重文权 利 要 求 书 1/3 页
2
CN 115171022 A
2件, 构建安全帽 检测模型。
6.根据权利要求5所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 训练 的
具体步骤为:
步骤S41: 采取多尺度训练方法, 设置多种不同的图片输入尺度, 训练时从多个尺度中
随机选取一种尺度, 将输入图片缩放到该尺度并输入所述 安全帽佩戴检测网络;
步骤S42: 在训练过程中, 当所述安全帽佩戴检测网络在所述安全帽佩戴检测数据集上
适应度函数不再增 加或下降时, 提前终止训练, 保证训练结果。
7.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S5
包括以下步骤:
步骤S51: 所述目标检测框作为输入, 对第一帧中出现的所有目标 标注ID;
步骤S52: 使用卡尔曼 滤波预测目标 下一步的状态, 将所述 ID与预测状态相匹配;
步骤S53: 采用重识别网络提取目标检测框内的深层目标特征, 并计算其特征向量用于
后文目标外观信息的关联, 并将提取 所得目标特征与ID相匹配;
步骤S54: 计算检测框与真实框之间的马氏距离和余弦距离, 融合目标的运动信息与外
观信息, 得到检测框与轨 迹的关联程度;
步骤S55: 对关联程度结果采用匈牙利匹配算法, 进行目标的匹配, 若匹配成功, 则分配
同样的ID, 若匹配未成功, 则进入IoU匹配环节, 继续采用匈牙利算法, 若匹配成功, 则分配
同样的ID, 给 未匹配到 轨迹的检测结果分配新的ID;
步骤S56: 对于成功匹配的结果, 使用卡尔曼滤波更新目标状态, 并进入下一帧的预测,
获取目标轨 迹。
8.根据权利要求1所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S6
中重点目标的定义与判断方法为:
步骤S611: 设定摄 像设备拍摄的视频画面分辨 率为PCX×PCY;
步骤S612: 基于所述安全帽检测模型和Deepsort跟踪算法, 获取画面中的所有 目标信
息Target=(cls,x,y,w,h,con f), 式中, cls表示目标类别, 违规目标的取值为0; con f表示
置信度, 为0~1之间的小数; (x,y)和(w,h)表示目标中心点坐标与目标框的宽和高相对于
整张图片宽与高的比值;
步骤S613: 计算每 个目标的区域像素面积ST=(x*Pcx):×(y*Pcy);
步骤S614: 分析所述目标信息Target, 当目标cls=0为违规目标A; 当ST≤22×22像素,
为极小目标, 判定为情况B 1; 当conf<0.5时, 为置信度较低目标, 判 定为情况B2; 所述B 1和
B2构成潜在违规目标B。
9.根据权利要求8所述的一种施工场景下的安全帽佩戴检测方法, 其特征在于, 步骤S6
中对所述重点目标进行跟踪放大的方法为:
步骤S621: 控制摄像设备转动至目标位置, 获取感兴趣区域SR, 对于所述违规目标A, 所
述SR表示实际检测框的大小; 对 于潜在违 规目标B, SR设为以目标为中心, 200 ×200的像素范
围;
步骤S622: 设定理想区域Si的面积为拍摄画面的六十四分之一;
步骤S623: 设置变倍阈值A:权 利 要 求 书 2/3 页
3
CN 115171022 A
3
专利 一种施工场景下的安全帽佩戴检测方法及系统
文档预览
中文文档
20 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共20页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 11:56:03上传分享