FRONTIER DISCUSSION | 前沿探讨
智能汽车环境感知算法及测试评价方法分析
白林
重庆交通大学机电与车辆工程学院 重庆市 400074
摘 要: 针对智能汽车环境感知技术开发应用,从传感器角度和算法角度分析智能汽车环境感知算法开发应用存在的问题。根据智能汽车环境感知算法开发的过程,对传感器标定算法、单一传感器环境感知算法、多传感器信息融合环境感知算法及智能汽车环境感知算法测试评价方法进行分层分析,通过分层分析阐述智能汽车环境感知算法及测试评价方法的开发应用。展望智能汽车环境感知算法的未来发展趋势。关键词:智能汽车;信息融合;环境感知;测试评价
1 前言
可靠的环境感知技术是智能汽车发展的基础,然而环境感知技术到目前为止还存在着大量的技术瓶颈。从传感器角度考虑,现有的传感器都存在一些缺陷;如相机受光照变化、遮挡等因素影响严重,在没有光源的夜晚会彻底失效;激光雷达在雨天受影响很大;基于GPS的定位系统稳定性较差。从算法角度考虑,大多数算法对环境变化的适应性不够好。综上,环境感知技术目前还存在大量急需解决的问题,基
于多源信息融合的环境感知成为智能汽车环境感知技术向可靠、安全方向发展。
据智能汽车环境感知算法开发的过程,
对传感器标定算法、单一传感器环境感知
算法、多传感器信息融合环境感知算法及
智能汽车环境感知算法测试评价方法进行
分层分析。
2 传感器标定算法分析研究
传感器标定是环境感知算法开发的基础,
相机通过标定可以解算相机内外参数,利用
内外参数可以求解图像坐标系对应用的世界
坐标系,利于进行视觉环境感知算法的开发。
标志
雷达通过联合相机标定可以确定雷达坐标系
与相机坐标系之间进行旋转和平移的变换关
系,利于多传感器信息融合,进行环境感知
算法开发。相机雷达的外参标定是标定存在
难点, Zhou L等[1]人针对棋盘图像平面参
数估计误差之间的质量问题,提出了几何约
束,将旋转与平移解耦,以减小这种相互作
用的影响。引入表示棋盘平面单位法向量不
确定度的权重,对每对图像和激光雷达扫描
质量进行综合评价。Gong X等[2]人提出了
一种解决三维激光雷达和摄像机组成的系统
外参标定问题的方法,根据三面提物体相关
的几何约束表示,利用非线性最小二乘(NLS)
问题对两个传感器之间的相对变换进行标定。
利用多传感器联合标定得到的空间变换矩阵
图1 智能汽车环境感知算法开发过程
传感器
+
16线激光雷达
相机标定
联合标定
[R,T]
激光雷达标定
单线激光雷达
双目深度相机
GPS定位传感器
4AUTO TIME
赵德力FRONTIER DISCUSSION | 前沿探讨
时代汽车  wwwautotime [R,T],可对多传感器信息进行融合。
01 11c
L P
P R T
长城m4参数=
(1)
其中P
L 为雷达坐标系,P
c
为相机坐标系,
R,T分别为旋转矩阵和平移向量。
3 智能汽车视觉感知算法分析研究视觉感知本质是对图像中的目标进行特征提取和分类,并进行判断是否为检测目标。目前基于深度神经网络的目标检测算法是视觉领域的主流之一,主要包括两方面:基于候选区域的目标检测算法和基于回归方法的目标检测算法。在基于候选区域的目标检测算法方面,Ren, S等[3]人提出区域提议网络(RPN)对输入图像进行预处理,预测目标位置和每个对应位置的置信度分数,并共享卷积特征给检测网络进行多目标检测。基于区域提议网络,Cai Z,Vasconcelos N 等[4]人提出级联RPN改进区域提议质量,目标识别上修改全局信息模型,提升目标检
测的准确性和检测速度。虽然基于RPN的目标检测检测算法提升一定程度的准确性,但对不同尺度的
目标检测仍存在较大问题,应用多尺度特征表示结合卷积神经网络的算法(MFR-CNN)[5]能有效解决不同尺度大小的目标检测。为提高对交通标志等小目标的检测,Habibi Aghdam H等[6]人提出轻量级ConvNet算法,从平均精度、每秒处理数据帧数及稳定提升对小目标检测。在基于回归方法的目标检测算法,主要是通过递归思想,将目标检测构建为一个回归问题,利用深度神经网络预测目标的位置和置信度分数,进行有效的目标检测[7] [8]。利用文献[7]采用的方法进行环境感知,实验结果如下:
4 基于多源信息融合智能汽车环境感知算法分析研究
多源信息融合的环境感知算法能有效弥补单个传感器或者基于视觉感知算法对环境感知的不足,有效的对环境中目标进行检测识别。这主要是因为常见的传感器相机虽然能够获得丰富的颜和纹理信息,但对于光照和阴影变化非常敏感[9],这对系统鲁棒性要求极其高的自主车感知系统并不适用。因此如何融合多源信息,充分挖掘不同传感器优势并实现更为鲁棒的目标检测效果成为许多研究人员的关注热点。
激光雷达因为具有极高的工作稳定性和
提供精确的物体信息,近年来得到广泛应用。
相机与雷达等多源信息融合是目前研究的主
要热点之一。在行人检测方面,汪军[9]提出
融合雷达与相机并进行行人检测的方法。将
雷达分割作为弱分类器,将基于视觉的行人
分类器作为强分类器,结合雷达前后帧关联
结果整合多帧检测信息,将多帧多传感器检
测结果以投票策略的方式共同给出。在动态
目标检测方面,曾湘峰[11]研究激光雷达深
度信息和高分辨率图像生成致密深度图的相
关方法,并根据致密深度图的深度信息及可
见光相机的颜等信息,在RGB图像及致
密深度图下采用稀疏三维场景流的模型实现
检测和跟踪动态目标。闫光[12]基于毫米波
雷达提供的带有高误检率的动态目标信息、
INS/GPS提供的位姿信息和点云提取到的可
通行区域等信息,提出一种基于可通行区域
历史信息、全局运动补偿、混合高斯模型的
动态目标检测方法,有效的融合多源信息进
行目标检测。融合多源信息的环境感知算法
能有效弥补单传感器环境感知存在的不足。
在多传感器联合标定基础上的信息信息融合
感知算法实验结果如下:
基于多源信息融合的环境感知技术是智
能汽车关键核心技术之一,进行多源信息
融合有利于增加环境感知技术的准确性、
稳定性等,弥补单个传感器环境感知技术
的不足,对突破环境感知技术发展的瓶颈
具有重要意义。
5 环境感知算法的测试评价分析研究
环境感知算法的测试评价研究主要包括
两方面:基于数据集的感知算法性能测试评
价和基于测评系统的感知算法测试评价。
5.1 基于离线场景数据驱动的感知算法
测试评价
张兵,董臻等人[11]提出基于极化目标
检测算法, 进行极化检测算法漏警率和检测
概率的性能分析评价。王湘晖,曾明等人[13]
提出了一种新的图像增强质量客观评价算法,
算法综合考虑图像局部区域的背景平均亮度
和空间复杂度对视觉分辨力的影响。张学显,
刘伟等人[14]针对智能车辆目标检测能力测
评存在的指标体系不完整、量化程度和测评
实时性低等问题,进行目标分类和识别测试
评价,并用TOPSIS方法进行综合的评价。
5.2 基于测评系统的感知算法测试评价
Zhu W,Miao J等人[15]基于驾驶模拟
器,在虚拟场景进行下车辆检测,并以SVM
与BP网络作为基准,利用ELM对车辆和道图2 基于视觉环境的感知算法实验
图3 基于多源信息融合的环境感知算法实验
AUTO TIME 5
FRONTIER DISCUSSION | 前沿探讨
路检测的实时性与精确性方面进行测试评价。通过构建虚拟场景和驾驶模拟的集成平台,能有效搭建不同的交通场景,对车辆感知性能进行测试评价[16][17]。
7 结束语
天津二手汽车网环境感知算法作为智能汽车关键和共性技术之一,单传感器信息环境感知发展受传感器受其物理条件限制具有局限性,多源信息融合能有效弥补单传感器环境感知时存在的不足,并通过场景数据驱动测试与环境感知算法测评系统测试,更好的验证算法性能。未来以多源传感器时间同步和空间配准为基
础,信息融合环境感知趋向从数据融合到特征融合发展。算法测试评价方法趋向从场景数据到测评系统发展。
参考文献:
[1]Zhou L ,Deng Z . Extrinsic calibration of a
camera and a lidar based on decoupling the rotation from the translation[C]// Intelligent Vehicles Symposium. IEEE,2012.
[2]Gong X,Lin Y,Liu J . 3D LIDAR-
Camera Extrinsic Calibration Using an ArbitraryTrihedron[J]. Sensors, 2013, 13(2):1902-1918.
[3]Ren,S.,He,K., Girshick,R.,& Sun, J.Faster
R-CNN: Towards Real-Time Object
Detection with Region Proposal Networks.
IEEE Transactions on Pattern Analysis and
Machine Intelligence, 2015,39(6),
1137-1149.
[4]Cai Z ,Vasconcelos N . Cascade R-CNN:
D e l v i n g i n t o H i g h Q u a l i t y O b j e c t
Detection[J]. 2017.
[5] Hui Z ,Kunfeng W,Yonglin T , et al.
MFR-CNN:Incorporating Multi-Scale
Features  and  Global Information for Traffic
Object Detection[J]. IEEE Transactions on
Vehicular Technology,2018:1-1.
[6] Habibi Aghdam H ,Jahani Heravi E ,
Puig D . A practical approach for detection
and classification of traffic signs using
Convolutional Neural Networks[J]. Robotics
and Autonomous Systems, 2016, 84:97-
112.
[7]Redmon J,Farhadi A.YOLO9000: Better,
Faster, Stronger[C]// IEEE Conference on
Computer Vision & Pattern Recognition.
IEEE, 2017:6517-6525.
[8]Liu W , Anguelov D , Erhan D , et al.
SSD:Single Shot MultiBox Detector[J].
2015.
[9]Gavrila D M, Giebel J, Munder S.
Vision-based pedestrian detection: The
protector system [C]. In Intelligent Vehicles
Symposium, 2004 IEEE. 2004: 13-18.
mt15[10]汪君.融合相机和激光雷达的行人检测
与跟踪算法研究[D].国防科学技术大学,
2015.
[11]曾湘峰.车载多传感器融合下的动态目标
检测与跟踪[D].国防科学技术大学,2015.
[12]闫光.基于多传感器信息融合的动态目标
检测与识别[D].北京理工大学,2015.
[13]张兵,董臻,梁甸农.极化目标检测算法
性能评价研究[J].系统工程与电子技术,
2001(03):28-30.
[14]王湘晖,曾明.基于视觉感知的图像增强
质量客观评价算法[J].光电子.激光,2008
(02):258-262.
[15] 张学显,刘伟,余彪,许铁娟,周鹏飞.数
据驱动的智能车辆目标检测能力测试评价
方法[J].计算机系统应用,2017,26(11):
249-253.
[16] Zhu W , Miao J , Hu J , et al. Vehicle
风光580detection in driving simulation using extreme
learning machine[J]. Neurocomputing,
2014, 128:160-165.
[17] Punzo, V., & Ciuffo, B. . Integration
of Driving and Traffic Simulation: Issues
and First Solutions. IEEE Transactions on
Intelligent Transportation Systems,2011,
12(2),354-363.
6AUTO TIME