laser

开发者说丨手把手教你实现多传感器融合技术

随声附和 提交于 2020-04-09 02:00:12
本文作者:Apollo开发者社区 多传感器融合 又称多传感器信息融合(multi-sensor information fusion),有时也称多传感器数据融合(multi-sensor date fusion)。就是利用计算机技术将来自 多传感器 或 多源的信息 和 数据 ,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。 多传感器信息融合技术的基本原理 就像人的大脑综合处理信息的过程一样,将各种传感器进行 多层次 、 多空间 的信息互补和优化组合处理,最终产生对观测环境的一致性解释。在这个过程中要充分地利用多源数据进行合理支配与使用,而信息融合的最终目标则是 基于各传感器 获得的分离观测信息,通过对信息多级别、多方面组合导出更多有用信息。这不仅是利用了多个传感器相互协同操作的优势,而且也综合处理了其它信息源的数据来提高整个传感器系统的智能化。 虽然自动驾驶在全球范围内已掀起浪潮,但是从技术方面而言依然存在挑战。目前自动驾驶的痛点在于稳定可靠的感知及认知,包括 清晰的视觉 、 优质的算法 、 多传感器融合 以及高效强大的运算能力。据分析,由自动驾驶引发的安全事故原因中,相关传感器的可能误判也成为了主要原因之一。多个传感器信息融合、综合判断无疑成为提升自动驾驶安全性及赋能车辆环境感知的新趋势。 本文由 百度Apollo智能汽车事业部 自动驾驶工程师—

肖昆/XTDrone

自古美人都是妖i 提交于 2020-03-23 18:38:23
3 月,跳不动了?>>> XTDrone [EN] 介绍 这是基于PX4和ROS的无人机仿真平台,在这个平台上,开发者可以快速验证算法。如: 目标检测与追踪 视觉SLAM 激光SLAM VIO 运动规划 多机协同 软件架构 通信: PX4与ROS之间的通信封装进Python类, 多机通信启动多进程 控制:键盘切换无人机飞行模式,控制解锁上锁,调节速度和偏航转速 感知 目标检测与追踪 YOLO SLAM: VSLAM: ORBSLAM2 Laser_SLAM: PLICP+gmapping VIO VINS-Mono(起飞前初始化问题有待完善) 位姿真值获取 语音识别(待开发) 运动规划(目前只有二维) 全局规划 A* Dijkstra 局部规划 DWA 协同:多机编队构型变换 仿真配置 无人机PX4参数 可拒止GPS和磁罗盘 启动脚本 Gazebo模型 支持双目相机、深度相机、单线雷达和多线雷达 Gazebo世界 两个户外场景 三个室内场景 安装教程 见 XTDrone使用文档 参与贡献 Fork 本仓库 新建 Feat_xxx 分支 提交代码 新建 Pull Request 来源: oschina 链接: https://my.oschina.net/u/4257871/blog/3209260

HTC Vive Tutorial for Unity

家住魔仙堡 提交于 2019-12-23 09:38:34
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> Version C#4, Unity 2018.2, Unity Note : Eric Van de Kerckhove updated this tutorial for Unity 2018.3 and SteamVR 2.0. The HTC Vive is a virtual reality headset developed by HTC and Valve Corporation . It lets you step into virtual worlds and experience it as yourself instead of through an on-screen avatar. If you’re a Unity developer, making virtual reality games with the HTC Vive into your own games is easy — you might even say the HTC Vive and Unity are a match made in heaven. In this HTC Vive Tutorial, you’ll learn how to integrate the HTC Vive into your