kitti

cd examples/converters/kitti $ yarn

冷暖自知 提交于 2020-04-01 03:52:20
error /home/jiahuiw/uber avs/xviz-master/examples/converters/kitti/node_modules/node-expat: Command failed. Exit code: 1 Command: node-gyp rebuild Arguments: Directory: /home/jiahuiw/uber avs/xviz-master/examples/converters/kitti/node_modules/node-expat Output: gyp info it worked if it ends with ok gyp info using node-gyp@3.8.0 gyp info using node@10.16.0 | linux | x64 gyp http GET https://nodejs.org/download/release/v10.16.0/node-v10.16.0-headers.tar.gz gyp http 200 https://nodejs.org/download/release/v10.16.0/node-v10.16.0-headers.tar.gz gyp http GET https://nodejs.org/download/release/v10

基于Faster RCNN的ADAS实践

依然范特西╮ 提交于 2020-03-06 17:46:09
文章目录 36第一课:ADAS:Advance Drive Assistance System中的CV应用 1 业务场景描述 2 CV应用于ADAS 3、ADAS场景行业应用现状 37第二课:Kitti数据集标注格式、下载 1. KITTI下载 2. KITTI数据集介绍(100G、激光雷达等) 3 load 12G 目标检测及注释 38 Kitti数据集类别的提取VOC格式 1 生成VOC格式 36第一课:ADAS:Advance Drive Assistance System中的CV应用 1 业务场景描述 导航与实时交通系统TMC 电子警察 车辆网 自适应巡航ACC 车道偏移报警系统 车道保持系统 碰撞避免或预碰撞系统 自动泊车 交通标识识别 10. 驾驶员疲劳探测 2 CV应用于ADAS 检测车载视频数据中的 机动车、非机动车、行人、交通标识 标准的目标检测问题 不同目标的外观差异 光照(数据增强)、遮挡(局部特征) 视角、大小(尺度变化)、位置 对比人脸检测任务,背景更复杂 判断模型的好坏 检测率、误报率 AP和mAP,s交并比 数据集资源 KITTI数据集:无人驾驶、检测、分割庞大数据集 MOT(可用于目标跟踪) Berkeley的大规模自动驾驶视频数据集(1.8T) https://blog.csdn.net/u010821666/article/details

超全的3D视觉数据集汇总

对着背影说爱祢 提交于 2020-02-02 15:37:01
作者:Tom Hardy Date: 2019-12-24 来源: 超全的3D视觉数据集汇总 1、KITTI数据集 KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)、语义分割等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成。 数据集链接: http://www.cvlibs.net/datasets/kitti/raw_data.php 2、Cityscapes Cityscapes是一个较为新的大规模数据集,它包含50个不同城市的街道场景中记录的各种立体视频序列,除了一组较大的20 000弱注释帧外,还具有5 来源: CSDN 作者: 3D视觉工坊 链接: https://blog.csdn.net/Yong_Qi2015/article/details/104143461

KITTI数据集

让人想犯罪 __ 提交于 2020-01-23 05:52:12
1.KITTI数据集概述   KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成[1] ,以10Hz的频率采样及同步。总体上看,原始数据集被分类为’Road’, ’City’, ’Residential’, ’Campus’ 和 ’Person’。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc组成。 2.数据采集平台   如图-1所示,KITTI数据集的数据采集平台装配有2个灰度摄像机,2个彩色摄像机,一个Velodyne 64线3D激光雷达,4个光学镜头,以及1个GPS导航系统。具体的传感器参数如下[2] : 2 ×

点云配准真实数据

回眸只為那壹抹淺笑 提交于 2020-01-19 23:02:37
在验证算法鲁棒性的时候用到了一些数据集,做一下总结。 kitti数据集:自动驾驶 Are we ready for autonomous driving? the KITTI vision benchmark suite.(2012 CVPR) 这个文章中介绍了Kitti数据集,他公开了很多详细的坐标转换函数和readme,认真去看就能处理出来。 http://www.cvlibs.net/datasets/kitti/index.php 百度Apollo数据集:自动驾驶 百度在加州南湾采集的真实公路数据,看到他们自己的文章在用。 DeepVCP An End-to-End Deep Neural Network for 3D Point Cloud Registration(2019 ICCV) L3-Net: Towards learning based LiDAR localization for autonomous driving (2019 CVPR) 自己写过一个文章总结了下,细节上还是有些问题没搞清,不过百度这个数据集采集的好像比Kitti更加精确。 https://mp.csdn.net/postedit/102973999 Stanford Lounge 一个斯坦福休息室的数据,看到下面两个文章再用,要从深度视频提取深度图,再转换成点云,这点没问题,真值

在jupyter notebook中绘制KITTI三维散点图

帅比萌擦擦* 提交于 2020-01-12 15:55:37
在jupyter notebook中绘制KITTI三维散点图 数据来源是KITTI数据集的电云,它的bin文件中包括的是每一个点的XYZ坐标和反射率,这里只用了坐标。当然数据不一定要KITTI,只要有XYZ坐标就可以 X=[] Y=[] Z=[] #用来打开KITTI的bin文件 def get_lidar(path, idx): lidar_file = os.path.join(path, '%06d.bin' % idx) assert os.path.exists(lidar_file) return np.fromfile(lidar_file, dtype=np.float32).reshape(-1, 4) ROOT="/home/jiading/myPointnet2/Pointnet2_PyTorch/pointnet2/data" MODE="train" split_dir = os.path.join(ROOT, 'KITTI', 'ImageSets', MODE + '.txt') image_idx_list = [x.strip() for x in open(split_dir).readlines()] sample_id_list = [int(sample_id) for sample_id in image_idx_list]

深度估计数据集

两盒软妹~` 提交于 2020-01-11 05:54:51
iBims-1 100 RGB-D image pairs of various indoor scenes https://www.bgu.tum.de/lmf/ibims1/ 下载链接 https://dataserv.ub.tum.de/index.php/s/m1455541 NYU Depth Dataset V2(激光雷达) 1449 densely labeled pairs of aligned RGB and depth images https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html NYU Depth V2 数据集是由来自各种室内场景的视频序列组成的数据集 拥有 1449 个密集标记的对齐 RGB 和深度图像,从 3 个城市拍摄的 464 个新场景 https://hyper.ai/datasets/5376 KITTI(激光雷达) 目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。 超过200k 3D标注物体的图像组成 http://www.cvlibs

kitti数据集仅velodyne数据转rosbag

孤者浪人 提交于 2020-01-07 18:47:37
kitti数据集仅velodyne数据转rosbag 最近做3D激光雷达,于是在kitti上下了个80g的数据集,发现.bin不会用,想转成rosbag,发现官方推荐的工具似乎还要把相机数据一起下载下来。。 搞了半天,后来找到一个很好的工具: https://github.com/AbnerCSZ/lidar2rosbag_KITTI 似乎是某阿里员工写的。 安装: $ cd ~ / catkin_ws / src / $ git clone git@github . com : AbnerCSZ / lidar2rosbag_KITTI . git $ cd ~ / catkin_ws $ catkin_make - DCMAKE_BUILD_TYPE = Release $ source ~ / catkin_ws / devel / setup . bash kitti官网的odometry: http://www.cvlibs.net/datasets/kitti/eval_odometry.php 数据集文件路径如下(可以只有velodyne和times.txt): └── dataset └── sequences └── 00 ├── calib . txt ├── image_0 [ 文件夹 ] ├── image_1 [ 文件夹 ] ├── times . txt