学术研究
2021年第42卷第3期自动化与信息工程21
*基金项目:国家市场监督管理总局技术保障专项项目
(2019YJ014);广东省特种设备检测研究院科技项目(2020JD10)。
基于YOLOv5视觉感知的实时叉车驾驶操作行为识别方法*
陈友升1周介祺1梁敏健2,3张大伟3刘桂雄1
(1.华南理工大学机械与汽车工程学院,广东广州510640
2.广东省特种设备检测研究院珠海
检测院,广东珠海519002
3.阿拉善盟特种设备检验所,内蒙古阿拉善盟750306)
摘要:驾驶员操作信息可反映驾驶情况和操作水平,有助于驾驶安全检测。以叉车为例,研究一种基于
YOLOv5视觉感知的实时叉车驾驶操作行为识别方法。首先,提出该方法的整体架构;然后,研究基于操作特征的实时叉车驾驶操作行为识别方法;最后,在一台合力K30柴油叉车上搭建试验平台进行测试。测试结果表明:本方法操作特征识别率达100%、操作行为识别正确率达98%,具有准确性好、实时识别的特点,可拓展应用于其他车辆操作检测。
关键词:深度学习;目标检测;行为识别;驾驶操作中图分类号:TH391.4
文献标识码:A
文章编号:1674-2605(2021)03-0004-06
DOI :10.3969/j.issn.1674-2605.2021.03.004
0引言
驾驶员通过与操纵器交互获取驾驶操作信息,以便监控驾驶状态[1]、评估驾驶水平[2]。目前,获取驾驶操作信息的主要方法包括基于车辆信息感知、基于驾驶员生理信号反应和基于驾驶员操作行为感知等。其中基于车辆信息感知方法通过检测车辆行驶信息,反推驾驶员操作行为,如文献[3](2015)通过MEMS 惯性传感器、汽车OBD 系统,完成驾驶员操作行为识别,并分析驾驶操作与油耗之间的关系;文献[4](2018)通过车辆CAN 总线获取行驶信息,经滤波、数据融合以及工况识别,反推驾驶
操作行为;文献[5](2020)通过DAS 系统采集行车信息,使用一种基于双向长短记忆网络(Bi-LSTM )及全连接神经网络(FC ),拓展神经网络检测模型,借助行车数据在时间序列上发生突变的特征判断异常驾驶。基于驾驶员生理信号反应方法通过检测驾驶员脑电、心电、肌电、眼电、皮电等生理信号变化,实现驾驶操作行为识别,如文献[6](2012)介绍一种昏睡驾驶识别方法,采用
多传感器融合技术,通过在驾驶员关键部位放置电极,
检测生物电情况判断驾驶员操作状态。基于驾驶员操作行为感知方法一般采用视觉传感器直接获取驾驶员操作行为进行判断识别,如文献[7](2018)通过单
目视觉获取运动中驾驶员的视频流,将驾驶员8个骨骼节点的三维坐标和预先建立的三维人体模型的二维投影进行匹配,检测和识别驾驶员上半身正常、单手接听电话、疲劳、醉酒驾驶4种状态;文献[8](2018)使用视觉传感器,采用LetNet ,AlexNet 卷积神经网络分类网络,完成驾驶员抽烟、玩手机等违规行为的有效识别;文献[9](2019)研究一种基于CNN 的非安全驾驶行为视觉传感识别方法,平均识别率达97.13%。综上所述:基于车辆信息感知方法、基于驾驶员生理信号反应方法采用间接技术,难以获取驾驶员真实操作的完整信息;基于驾驶员操作行为感知方法,采用视觉传感器,可实时获取驾驶操作信息,是目前驾驶操作行为识别的主流方法。
本文采用驾驶员操作行为感知方法,结合深度学习的图像目标检测算法,提出一种基于YOLOv5视觉
感知的实时叉车驾驶操作行为识别方法,利用工业相机实时识别叉车驾驶操作行为。
1基于YOLOv5视觉感知的实时叉车驾驶操
作行为识别方法基于YOLOv5视觉感知的实时叉车驾驶操作行为识别方法包括:1)基于YOLOv5的实时叉车驾驶操作特征提取方法;2)基于驾驶操作逻辑的实时叉
车驾驶操作行为识别方法,框图如图1所示。通过视
觉传感器结合深度学习目标检测算法,获取驾驶操作
特征,建立手部与各个操纵器之间的控制模型,实现
驾驶操作行为识别。
图1基于YOLOv5视觉感知的实时叉车驾驶操作行为识别方法框图
1.1基于YOLOv5的实时叉车驾驶操作特征提取方法
常见的深度学习目标检测算法,如Faster R-CNN 将检测分为候选框提取、分类2个过程,在模型训练过程中需对RPN,fast R-CNN进行反复训练,计算量大、检测时间长。2016年Joseph Redmon等提出基于回归YOLO目标检测算法[10]。该算法结构简单、检测速度快。YOLO模型经过不断改进与性能提高,2019年在开源社区提出YOLOv5模型。YOLOv5网络结构如图2
所示。图2YOLOv5网络结构
首先,对输入的叉车驾驶图片进行特征提取,通过Focus及CSP结构压缩特征图,通过FPN网络进行特征信息的传递融合,从而得到预测后的特征图;然后,通过PAN结构提升预测性能;最后,在预训练好的YOLOv5网络中,对叉车关键部件及人体操作关键位置进行多尺度预测,输出包括双手、操作档杆、
22
陈友升周介祺梁敏健张大伟刘桂雄:基于YOLOv5视觉感知的实时叉车驾驶操作行为识别方法
2021年第42卷第3期自动化与信息工程23
方向盘等多个目标的定位框。
YOLOv5模型的损失L YOLOv5由回归损失L box 、正样本分类损失L cla 和正负样本的前景背景预测分类损失L obj 组成:
YOLOv5box cls obj
L L L L =++(1)
将人工标注数据集输入到YOLOv5模型,通过迭代减少L YOLOv5,使其收敛到足够小,模型训练完成。相机采集实时驾驶行为视频输入到已训练模型中,即可完成实时目标检测。1.2
基于驾驶操作逻辑的实时叉车驾驶操作行为识别方法
驾驶员通过手部操作控制叉车作业,检测叉车驾驶操作行为需建立手部与各个操纵器之间的控制模型,左右手控制对象及操作形式如表1所示。
表1左右手控制对象及操作形式
名称
控制对象标签名档位状态操作形式自动保持左手(LeftHand)
方向盘
SteerWheel 转角旋转是驻车制动Brake 松制动移动是合制动右手
(RightHand)
方向盘SteerWheel
转角旋转
叉架升降操纵器
ForkHeight
空挡
移动
上升下降叉架倾斜操纵器ForkLean
空挡
移动
前倾后仰
叉车快慢操纵器ForkliftSpeed
空挡移动
快速慢速叉车方向操纵器
ForkliftDirection
空挡移动是
前进后退
在规范驾驶过程中,左手负责控制方向盘与驻车制动;右手负责控制方向盘、叉架升降、叉架倾斜、叉车快慢、叉车方向操纵器。这些操纵器按照操作形式又分为移动式、旋转式2种,其操作逻辑不同,操作行为识别方法也不同。
驾驶员握住移动式操纵器手柄,用手掌推动其到达固定位置,完成档位切换操作。移动式操纵器操作
行为识别原理图如图3
所示。
图3移动式操纵器操作行为识别原理图
在非驾驶状态对操纵器进行换挡操作,记录不同操纵器处于不同档位的图像,使用YOLOv5对图像进行目标检测,并提取图像特征。设图像像素坐标为(u ,v ),特征图边界框为bd min min max max (,,,)u v u v R ,形心坐标为max max min min pos ,22u v u v P ++⎛⎫
⎪⎝⎭
,可得到操纵器n 在不同档位m 下的标定档位集合H pos-n ,建立操纵器档位集合Φ:
1pos pos pos pos pos 1pos pos :{,...,,...,}
:{,...,,...,}
m M
n n n n n N P P P -------H H H H Φ(2)
可获得全部操纵器标签集合Ω0。
采集驾驶过程中的操作行为视频,逐帧输入到已训练的YOLOv5模型;识别并提取当前图像中的操特征,可得到当前时刻图像中所有控制器标签集合Ωi ;通过补集操作,得到被遮挡档位集合∆Ω;根据被遮挡标签可得到被遮挡操纵器对应的标定档位集合∆Φ。
提取当前图像中的手部特征、边界框R LeftHand ,R RightHand ,得到其形心坐标P LeftHand ,P RightHand ,计算手部(X Hand )形心与标定档位间的欧式距离d m :
24
m d =(3)
针对不同的操纵器采用不同的安全距离L i ,当d m 小于安全距离L i 时,即认为在进行操纵器n 切换到m 档位的操作。叉架升降操纵器操作识别过程图如图4
所示。
图4
叉架升降操纵器操作识别过程图
方向盘是叉车上唯一的旋转式操纵器,在规范操作中,左手握住方向盘手柄旋转完成叉车转向动作,识别方向盘操作行为即识别某一时间段内方向盘的旋转方向和转角。方向盘操作行为识别示意图如图5所示。设顺时针为正方向,初始为0时刻,通过
YOLOv5模型可获得第i 时刻左手形心LeftHand i
P 和方向盘形心steerwheel i
P 、第i −1时刻左手形心1
LeftHand i P -,建立
起向量V i ,V i−1(1i i ≠V V -),令LH ,SW 为LeftHand ,SteerWheel 的简写,引入转角方向系数α:
11LH LH LH LH SW 11
LH LH SW LH LH 11LH LH LH LH SW 11
LH LH SW LH LH (&,)  or (,&)  1, if
汽车档位示意图
or (&,)  or (,&) 1, else i i i i i
i i i i i i i i i i i i i i i u u v v v u u u v v u u v v v u u u v v α--------⎧<<⎪
⎪<>⎪⎪>>=⎨
⎪><⎪⎪
⎪-⎩
(4)
则在i −1到i (i =1,2,3…)时刻内,转角∆θi (由于时间间隔小,∆θi ∈[0,π))为
11
arccos
i i i i i θα--∆=⋅V V V V
(5)
图5方向盘操作行为识别示意图
2试验验证
在广东省某叉车培训场地进行试验。试验设备为合力K30柴油叉车,视频采集设备为某品牌1080P 相
机搭配6mm 广角镜头,图像处理终端为搭载有GTX 1080Ti GPU 的笔记本电脑。试验设备布置示意图如图6所示,相机光轴垂直于方向盘平面。试验时,采集8段共30min 的叉车操作视频,使用聚类算法提取操作行为图片500张,并进行标注构建模型训练数
据集,将训练集输入到模型中进行模型训练。
图6试验设备布置示意图
陈友升周介祺梁敏健张大伟刘桂雄:基于YOLOv5视觉感知的实时叉车驾驶操作行为识别方法
2021年第42卷第3期自动化与信息工程25
在叉车启动前,采集档位标定图片30张,并进行各操纵器档位标定。驾驶员驾驶叉车进行实操考核,相机实时采集驾驶操作行为图像,并输入到已训练的模型进行特征检测与操作行为识别。本实验共进行3
段实操考核,实时检测视频共10min ,处理图像约18000帧,依据每帧操作识别实验结果统计得出,操作特征检出率达100%,操作行为识别率达98%。叉车驾驶操作行为识别效果图如图7
所示。
(a)叉架升降操作(b)叉架倾斜操作(c)
前进后退操作
(d)快慢档操作(e)驻车制动操作(f)转向操作
图7叉车驾驶操作识别效果图
3结论
1)基于YOLOv5的实时叉车驾驶操作特征提取方法,使用工业相机获取叉车驾驶实时操作行为图像,通过YOLOv5深度学习模型获取操纵器和驾驶员特征,识别定位叉车关键部件及驾驶员操作关键点坐标建立叉车驾驶员操作行为模型;
2)基于驾驶操作逻辑的实时叉车驾驶操作行为识别方法,将图像特征信息输入驾驶操作逻辑算法,得到驾驶员当前操作信息,操作特征识别率达100%,操作行为识别正确率达98%。
下一步考虑对操作特征提取和操作行为识别算法进行轻量化处理,设计人工智能的嵌入式系统,将叉车驾驶行为检测系统产品化,实现叉车驾驶操作的自动化检测。参考文献
[1]李聪.车辆驾驶状态监控预警系统设计[J].信息与电脑(理论
版),2016(15):131-133,142.
[2]崔悦,石旭东,于之靖.机场特种车辆驾驶人员操作水平评价
系统[C]//第七届全国交通运输领域青年学术会议,2007.[3]封宇华,杨拥民,杜凯,等.汽车驾驶行为与行驶状态的数据监
测系统设计[J].单片机与嵌入式系统应用,2015,15(12):54-57.
[4]杨新桦,刘宝健,张亮,等.一种驾驶员驾驶水平评价系统及其
开发方法[J].重庆理工大学学报(自然科学),2018,32(9):1-5.[5]惠飞,郭静,贾硕,等.基于双向长短记忆网络的异常驾驶行为
检测[J].计算机工程与应用,2020,56(24):116-122.
[6]SAHAYADHAS A,SUNDARAJ K,MURUGAPPAN M.
Detecting driver drow siness based on sensors:a review [J].Sensors,2012,12(12):16937-16953.
[7]吴晨谋,方志军,黄正能.基于单目摄像头的主动式驾驶行为
分析算法[J].山东大学学报(工学版),2018,48(5):69-76.[8]李俊俊,杨华民,张澍裕,等.基于神经网络融合的司机违规行
为识别[J].计算机应用与软件,2018,35(12):222-227,319.[9]徐丹,代勇,纪军红.基于卷积神经网络的驾驶人行为识别方
法研究[J].中国安全科学学报,2019,29(10):12-17.
[10]REDMON J,DIVVALA S,GIRSHICK R,et al.You only
look once:Unified,real-time object detection[J].Proceedings of 2016IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA.2016.779-788.