15个车辆信息检测数据集收集汇总(简介及链接)
1. UA-DETRAC
UA-DETRAC是⼀个具有挑战性的现实世界多⽬标检测和多⽬标跟踪基准。数据集由 Cannon EOS 550D摄像头在中国北京和天津24个不同地点拍摄的10个⼩时的视频组成。视频以每秒25帧的速度录制,分辨率为960540像素。在UA-DETRAC数据集中,有超过14万帧和8250辆车被⼈⼯标注,总共标记了121万物体的边界盒。我们还对⽬标检测和多⽬标跟踪⽅⾯的最新⽅法进⾏基准测试,以及本⽹站中详细介绍的评估指标。最好的越野车
车辆分为四类,即轿车、公共汽车、厢式货车和其他车辆。
天⽓情况分为四类,即多云、夜间、晴天和⾬天。
标注的车辆的尺度定义为其像素⾯积的平⽅根。将车辆分为三种规模:⼩型(0-50像素)、中型(50-150像素)和⼤型(⼤于150像素)。遮挡⽐我们使⽤车辆包围框被遮挡的⽐例来定义遮挡的程度。
遮挡程度分为三类: ⽆遮挡、部分遮挡和重遮挡。具体来说,定义了部分遮挡(如果车辆遮挡率在1%-50%之间)和重遮挡(如果遮挡率⼤于50%)。
截尾率表⽰车辆部件在帧外的程度,⽤于训练样本的选择。
2. ⾃动驾驶数据集
视频数据: 超过1,100⼩时的100000个⾼清视频序列在⼀天中许多不同的时间,天⽓条件,和驾驶场景驾驶经验。视频序列还包括GPS 位置、IMU数据和时间戳。
道路⽬标检测:2D边框框注释了100,000张图⽚,⽤于公交、交通灯、交通标志、⼈、⾃⾏车、卡车、摩托车、⼩汽车、⽕车和骑⼿。
实例分割:超过10,000张具有像素级和丰富实例级注释的不同图像
引擎区域:从10万张图⽚中学习复杂的可驾驶决策。
车道标记:10万张图⽚上多类型的车道标注,⽤于引导驾驶。
3. 综合汽车(CompCars)数据集
该数据集在 CVPR 2015论⽂中给出,Linjie Yang, Ping Luo, Chen Change Loy, Xiaoou Tang. A Large-Scale Car Dataset for Fine-Grained Categorization and Verification, In Computer Vision and Pattern Recognition (CVPR), 2015. 。
综合汽车(CompCars)数据集包含来⾃两种场景的数据,包括来⾃web-nature和监视-nature的图像。
web-nature数据包含163辆汽车和1,716个汽车模型。总共有136,726张图像捕捉整个汽车,27,618张图像捕捉汽车部件。完整的汽车图像被标记为边界框和视点。每个车型都有五个属性,包括最⼤速度、排⽔量、车门数量、座椅数量和车型。
监视-⾃然数据包含了5万张前视图捕捉到的汽车图像。
该数据集已经为以下计算机视觉任务做好了准备:细粒度分类、属性预测、汽车模型验证。
本⽂中介绍的这些任务的训练/测试⼦集都包含在数据集中。研究⼈员也欢迎使⽤它来完成其他任务,如图像排序、多任务学习和3D重建。
4. Stanford Cars Dataset汽车杀人案
Cars数据集包含196类汽车的16,185张图像。将数据分成8144张训练图像和8041张测试图像,⼤致对每个类进⾏50-50的分割。级别通常按制造、型号、年份划分,例如2012年特斯拉Model S或2012年宝马M3 coupe。
电动助力自行车排名
3D Object Representations for Fine-Grained Categorization
Jonathan Krause, Michael Stark, Jia Deng, Li Fei-Fei
4th IEEE Workshop on 3D Representation and Recognition, at ICCV 2013 (3dRR-13). Sydney, Australia. Dec. 8, 2013.
5. OpenData V11.0-车辆重识别数据集 VRID
数据集说明:
开放的车辆重识别的数据来⾃某城市卡⼝车辆图像,由326个⾼清摄像头拍摄,时间覆盖⽇间14天,分辨率从400×424到990×1134不等。数据集中包含最常见的10种车辆款式,共10000张图像,如表1所列。为了模拟同款车辆对车辆重识别的影响,每个车辆款式⾥各有100个不同的车辆ID,即100个不同的车辆。在同⼀车辆款式⾥的100个车辆ID,它们的外观近乎相同,差异⼤部分只在于车窗部分的个性化标识,如年检标志等。此外,每个车辆ID包含有10张图像,这10张图像拍摄于不同的道路卡⼝,光照、尺度以及姿态均不尽相同,相应的同⼀车辆也可能会具有不同的外观。
车辆重识别数据集的车辆字段属性如表2所⽰,其中车辆品牌表⽰车辆品牌信息,车牌号码⽤于数据库⾥同⼀车辆的关联,车窗位置代表图像⾥的车窗所在区域的坐标,车⾝颜⾊表⽰的是图像⾥的车辆颜⾊信息。这些信息使得数据库不仅能⽤于车辆重识别研究,也可⽤于车辆品牌精细识别,车辆颜⾊识别等研究。
6. N-CARS数据集
N-CARS数据集是⼀个⽤于汽车分类的⼤型基于事件的真实世界数据集。
它由12,336个汽车样本和11,693个⾮汽车样本(背景)组成。这些数据是通过安装在⼀辆汽车挡风玻璃后的ATIS摄像机记录下来的。这些数据是从不同的驾驶过程中提取的。数据集被分割为7940个car和7482个背景训练样本,4396个 car 和4211个背景测试样本。每个⽰例持续100毫秒。
7. MIT DriveSeg Dataset
到⽬前为⽌,提供给研究社区的⾃动驾驶数据主要由静态的、单⼀的图像组成,这些图像可以通过使⽤边界框来识别和跟踪道路内和周围的常见物体,⽐如⾃⾏车、⾏⼈或交通灯。相⽐之下,DriveSeg包含了更精确的、像素级的这些常见道路物体的表⽰,但通过连续视频驾驶场景的镜头。这种类型的全场景分割可以特别有助于识别更多的⽆定形物体,如道路建设和植被,它们并不总是有这样明确和统⼀的形状。数据集由两部分组成:
DriveSeg(⼿动)
⼀种⾯向前帧逐帧像素级语义标记数据集,该数据集是从⼀辆在连续⽇光下通过拥挤的城市街道⾏驶的移动车辆中捕获的。
违章滞纳金怎么算
技术摘要
丰田最新款
视频数据: 2分47秒(5000帧)1080P (1920x1080) 30帧/秒
类定义(12):车辆、⾏⼈、道路、⼈⾏道、⾃⾏车、摩托车、建筑、地形(⽔平植被)、植被(垂直植被)、杆⼦、交通灯和交通标志
8.  KITT
精确的地⾯真相由Velodyne激光扫描仪和GPS定位系统提供。我们的数据集是通过在中型城市卡尔斯鲁厄(Karlsruhe)、乡村地区和⾼速公路上⾏驶来获取的。每张图像可看到多达15辆汽车和30个⾏⼈。除了以原始格式提供所有数据外,我们还为每个任务提取基准。对于我们的每⼀个基准,我们也提供了⼀个评估指标和这个评估⽹站。初步实验表明,在现有基准中排名靠前的⽅法,如Middlebury⽅法,在脱离实验室进⼊现实世界后,表现低于平均⽔平。我们的⽬标是减少这种偏见,并通过向社会提供具有新困难的现实基准来补充现有基准。
9. CityScapes
提供了⼀个新的⼤规模数据集,其中包含了50个不同城市的街道场景中记录的不同的⽴体视频序列,有5000帧的⾼质量像素级注释,还有更⼤的⼀组2万帧的弱注释。因此,该数据集⽐以前类似的尝试要⼤⼀个数量级。有关注释类的详细资料及注释⽰例可在此⽹页查阅。Cityscapes数据集旨在评估⽤
于语义城市场景理解的主要任务的视觉算法的性能:像素级、实例级和全光学语义标记;⽀持旨在开发⼤量(弱)注释数据的研究,例如⽤于训练深度神经⽹络。
10.  's Driving Dataset
⽬的是低成本的⾃动驾驶⽅案,⽬前是通过⼿机改装来做⾃动驾驶,开源的数据包含7⼩时15分钟分为11段的公路⾏驶的⾏车记录仪视频数据,每帧像素为160x320。主要应⽤⽅向:图像识别;
11. Udacity 's Driving Dataset
· 论⽂链接:未到
Udacity的⾃动驾驶数据集,使⽤Point Grey研究型摄像机拍摄的1920x1200分辨率的图⽚,采集到的数据分为两个数据集:第⼀个包括在⽩天情况下在加利福尼亚州⼭景城和邻近城市采集的数据,数据集包含9,423帧中超过65,000个标注对象,标注⽅式结合了机器和⼈⼯。标签为:汽车、卡车、⾏⼈;第⼆个数据集与前者⼤体上相似,除了增加交通信号灯的标注内容,数据集数量上也增加到15,000帧,标注⽅式完全采⽤⼈⼯。数据集内容除了有车辆拍摄的图像,还包含车辆本⾝的属性和参数信息,例如经纬度、制动器、油门、转向度、转速。主要应⽤⽅向:⽬标检测,⾃动驾驶;
12. D²-City
背景
D²-City 是⼀个⼤规模⾏车视频数据集,提供了超过⼀万段⾏车记录仪记录的前视视频数据。所有视频均以⾼清(720P)或超⾼清
唐山车网(1080P)分辨率录制。我们为其中的约⼀千段视频提供了包括⽬标框位置、⽬标类别和追踪ID信息的逐帧标注,涵盖了共12类⾏车和道路相关的⽬标类别。我们为⼀部分其余的视频提供了关键帧的框标注。
和现有类似数据集相⽐,D²-City 的数据采集⾃中国多个城市,涵盖了不同的天⽓、道路、交通状况,尤其是极复杂和多样性的交通场景。我们希望通过该数据集能够⿎励和帮助⾃动驾驶相关领域研究取得新进展。
数据集介绍
D²-City 数据集采集⾃运⾏在中国五个城市的滴滴运营车辆。所提供的原始数据均存储为帧率25fps、时长30秒的短视频。后续我们将会提供对该数据集的训练、验证和测试集的划分与统计。
我们为其中约⼀千段视频提供了12类⽬标的边界框和追踪ID标注信息,对其他的视频,我们提供关键帧的框标注。类别信息详见下表。
评估任务
基于本数据集,我们将提供⼀项评估任务(和BDD合作)作为NeurIPS 2019 ML4AD挑战赛的赛事。任务和评估的详情请参见竞赛⽹站相关页⾯。
赛事:D²-City & BDD100K ⽬标检测迁移学习挑战赛 在⽬标检测迁移学习挑战赛中,参赛者需要利⽤采集⾃美国的BDD100K数据,训练⽬标检测模型⽤于采集⾃中国的D²-City数据。数据集中可能包含稀有或有挑战性的状况下采集的数据,如光线不⾜、⾬雾天⽓、道路拥堵等,参赛者需要提供在各状况下准确的⽬标检测结果。
13. ApolloScape
关于ApolloScape数据集
轨迹数据集,三维感知激光雷达⽬标检测和跟踪数据集,包括约100K图像帧,80k激光雷达点云和1000km城市交通轨迹。数据集由不同的条件和交通密度,其中包括许多具有挑战性的场景,车辆,⾃⾏车,和⾏⼈之间移动。
14. nuScenes
10)Oxford RobotCar:
⽜津⼤学的项⽬,数据是对⽜津的⼀部分连续的道路进⾏了上百次数据采集,收集到了多种天⽓、⾏⼈和交通情况下的数据,也有建筑和道路施⼯时的数据,长达1000⼩时以上(论⽂名称就写着 '1year, 1000km')。要注意的是,所下载的Oxford RobotCar Dataset的数据不包含label⽂件。因此对数据进⾏使⽤前,具体需要查看论⽂内容。主要应⽤⽅向:⾃动驾驶视觉场景分析;
15. nuScenes
nuScenes数据集是⼀个具有3d对象标注的⼤规模⾃主驾驶数据集。它特点:
完整的传感器套件(1 x激光雷达、5 x雷达、6 x相机,IMU, GPS)
1000 scenes of 20s each
1400000相机图像
390000激光雷达扫描
两个不同的城市:波⼠顿和新加坡
左派和右⼿交通详细的地图信息
1.4M 3D 边界盒⼿⼯注释等,23个对象类
属性可见性、活动和姿势
新: 1.1B 激光雷达点⼿⼯注释为32类
新: 探索nuScenes在SiaSearch免费使⽤⾮商业⽤途
附:交通标志数据集
1),⽐利时的⼀个交通标志数据集。
2),德国交通标注数据集。
3),超过20 000张带有20%标签的图像,包含3488个交通标志。
4),超过6610帧上的7855条标注。
5) ,腾讯和清华合作的数据集,100000张图⽚,包含30000个交通标志实例。