计算机视觉

基于深度学习算法和传统立体匹配算法的双目立体视觉

让人想犯罪 __ 提交于 2021-02-20 19:55:37
点击蓝色“ AI专栏 ”关注我 哟 选择“ 星标 ”,重磅干货,第一时间送达 我喜欢看蓝天白云的景色,心情会变好 ,希望看到的你心情也会变好,让我们一起加油噶 。 这是站长的第 40 篇原创文章 01 PART 立体视觉是什么? 在开始之前,我相信很多站友都会有这个疑问,所以我想先在这里做一下简要的介绍,以方便大家快速地了解这个项目。我们知道,人类通过眼睛感知世界、获取信息。人类获取信息的方式有很多 种,可通过眼睛、耳朵、触觉、嗅觉、味觉等,但我们接受到的绝大部分信息都是通过视觉的方式获取到的。由此可见,视觉系统在人类的生存、生产、发展中起到了极其重要的作用。随着计算机技术、智能机器人等的广泛研究与应用,不少科学家尝试将人类视觉系统功能赋予机器。让机器获取与人类一般的视觉能力,是许多科研工作者长期以来的追求。目前,虽然还不能够使机器获得与人类一模一样的视觉感知能力与认知能力,但自上世纪中叶以来,各种视觉技术理论与图像处理技术得到了飞速的发展,我们正朝着这一目标不断前进。 立体视觉是计算机视觉的重要组成部分,而双目立体视觉又是立体视觉的一个重要分支。它是基于两幅图像的,通过模拟人眼视觉的方式,由两个视点对同一个物体进行观察,具体是由不同位置的两台相机(或一台相机经过旋转和移动)对同一场景进行拍摄,然后通过三角测量的原理来计算空间点在两幅图像中像素间的视差

基于深度学习算法和传统立体匹配算法的双目立体视觉

别说谁变了你拦得住时间么 提交于 2021-02-20 19:47:04
点击上方 “ 小白学视觉 ”,选择加"星标"或“置顶” 重磅干货,第一时间送达 01 PART 立体视觉是什么? 在开始之前,我相信很多站友都会有这个疑问,所以我想先在这里做一下简要的介绍,以方便大家快速地了解这个项目。我们知道,人类通过眼睛感知世界、获取信息。人类获取信息的方式有很多 种,可通过眼睛、耳朵、触觉、嗅觉、味觉等,但我们接受到的绝大部分信息都是通过视觉的方式获取到的。由此可见,视觉系统在人类的生存、生产、发展中起到了极其重要的作用。随着计算机技术、智能机器人等的广泛研究与应用,不少科学家尝试将人类视觉系统功能赋予机器。让机器获取与人类一般的视觉能力,是许多科研工作者长期以来的追求。目前,虽然还不能够使机器获得与人类一模一样的视觉感知能力与认知能力,但自上世纪中叶以来,各种视觉技术理论与图像处理技术得到了飞速的发展,我们正朝着这一目标不断前进。 立体视觉是计算机视觉的重要组成部分,而双目立体视觉又是立体视觉的一个重要分支。它是基于两幅图像的,通过模拟人眼视觉的方式,由两个视点对同一个物体进行观察,具体是由不同位置的两台相机(或一台相机经过旋转和移动)对同一场景进行拍摄,然后通过三角测量的原理来计算空间点在两幅图像中像素间的视差,根据视差来恢复目标物体的深度信息,最后可以根据深度信息来恢复物体的三维形状。 作为一个完整的计算机视觉三维重建系统必须包含以下几个部分:图像采集

完成你的第一个智能无人机

喜欢而已 提交于 2021-02-20 11:46:44
前 言 对于大多数无人机爱好者来说,能自己从头开始组装一台无人机,之后加入AI算法,能够航拍,可以目标跟踪,是心中的梦想。并且,亲自从零开始完成复杂系统,这是掌握核心技术的必经之路。 基于此,开课吧特邀北京航空航天大学无人机专家,进行设计和指导,独家研发与真实的科学研究和工程开发接轨的课程。软硬件结合,将教你亲自研发无人机,而不是简单的购买一个无人机整机。 课程由北京航空航天大学无人机专家设计和指导,与真实的科学研究和工程开发接轨。有以下六大优势: 那么,直接购买无人机和我们的课程研发无人机的区别在哪里呢?请看下图: 我们的课程并不是简单的拼装课程,更涉及到 飞行器设计、仿真平台搭建和算法实现的整体流程。 我们课程将会 教你无人机的基本组成、飞行原理、控制理论、状态估计、同时定位与建图、运动规划、目标检测追踪与多无人机协同; 从元器件开始搭建一个具有GPS导航和人为规划路线功能的无人机,并搭建无人机仿真平台,在仿真平台上实现各类智能算法的开发与部署。 本课程分为两大板块: ❥ 课程大纲 (仿真环境下无人机SLAM) ( 真实环境下无人机VIO ) (仿真环境下的运动规划) (仿真环境下的多机协同) (仿真环境下的无人机追踪行人) (真实环境下,无人机追踪亮灯) 本课程适合以下人员的学习: 注意: 如果学员是未成年人,家长请做好保护措施和安全教育; 组装飞行无人机有一定的安全隐患

机器学习&深度学习&人工智能资料

会有一股神秘感。 提交于 2021-02-19 11:49:31
一、机器学习书籍 吴恩达深度学习课程: 神经网络和深度学习 链接: https://pan.baidu.com/s/1H1_fB924YcWkIKZI9rP6Cg 提取码:mjej 机器学习_周志华: 链接: https://pan.baidu.com/s/1j55DqrkCNEzLfdWoIOjwDQ 提取码:m0es 机器学习训练秘籍(完整中文版) 链接: https://pan.baidu.com/s/1mcseYd3JvQ7jizXJGmyQsQ 提取码:dfmo Python机器学习经典实例: 链接: https://pan.baidu.com/s/1hHKP4iw_MXHe_aij8lmxdw 提取码:p8dq 《深度学习之TensorFlow: 入门、原理与进阶实战》 链接: https://pan.baidu.com/s/1frVnbD5lilYqWHeWaBkV4g 提取码:c3bs tnesorflow书籍中的代码: 链接: https://pan.baidu.com/s/1o-xMzQoH-Qfci-lZZR2J_w 提取码:drlp 机器学习实践中文版 链接: https://pan.baidu.com/s/12FYjosFEYH1JUK9cJsSHXQ 提取码:v91n Machine Learning in Action (机器学习实战-中文版) 链接:

Transformer构建GAN

假装没事ソ 提交于 2021-02-18 14:57:38
点击上方 “ 机器学习与生成对抗网络 ”,关注"星标" 获取有趣、好玩的前沿干货! 选自arXiv 作者: Yifan Jiang等 机器之心编译 机器之心编辑部 「attention is really becoming『all you need』.」 最近,CV 研究者对 transformer 产生了极大的兴趣并取得了不少突破。这表明,transformer 有可能成为计算机视觉任务(如分类、检测和分割)的强大通用模型。 我们都很好奇:在计算机视觉领域,transformer 还能走多远?对于更加困难的视觉任务,比如生成对抗网络 (GAN),transformer 表现又如何? 在这种好奇心的驱使下,德州大学奥斯汀分校的 Yifan Jiang、Zhangyang Wang,IBM Research 的 Shiyu Chang 等研究者进行了第一次试验性研究, 构建了一个只使用纯 transformer 架构、完全没有卷积的 GAN,并将其命名为 TransGAN 。与其它基于 transformer 的视觉模型相比,仅使用 transformer 构建 GAN 似乎更具挑战性,这是因为与分类等任务相比,真实图像生成的门槛更高,而且 GAN 训练本身具有较高的不稳定性。 论文链接:https://arxiv.org/pdf/2102.07074.pdf 代码链接:https:

Anchor-free 目标检测之 ExtremeNet

為{幸葍}努か 提交于 2021-02-18 04:11:00
点击 我爱计算机视觉 标星,更快获取CVML新技术 本 文转载自知乎用户“路一直都在”的OUCer&CVer专栏,原文地址: https://zhuanlan.zhihu.com/p/71249684 该文被CVPR 2019接收,作者来自 德克萨斯州大学奥斯汀分校 。 论文地址: https://arxiv.org/abs/1901.08043 开源代码: https://github.com/xingyizhou/ExtremeNet 1 Abstract 随着深度学习的发展,目标检测问题已经从一个 由下到上 的问题转变为一个 由上到下 的问题。(下文有详细介绍)当前最先进的目标检测算法首先枚举密集的目标可能存在的位置,然后对每一个位置分类判断是否存在目标,是前景还是背景。 在本文中,作者认为,从下到上的方法仍然能够取得很好的性能。利用关键点预测网络预测四个极值点(最顶部、最左侧、最底部、最右侧)和一个中心点共五个关键点。 如果五个关键点是 几何对齐 的,我们将它们分组到一个bounding box中,那么,目标检测问题就转化为一个纯的 关键点估计 问题,而不用进行分类或特征学习。实验表明,在COCO数据集上,AP有43.7%。 2 Introduction 利用从上到下的方法进行目标检测是当今的主流方法。常用的目标检测器将目标检测转变为矩形区域分类,通过裁剪

从零开始学keras(八)

自闭症网瘾萝莉.ら 提交于 2021-02-18 01:52:38
点击上方“ 计算机视觉cv ”即可“进入公众号” 重磅干货第一时间送达 预训练网络   想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。预训练网络(pretrained network)是一个保存好的网络,之前已在大型数据集(通常是大规模图像分类任务)上训练好。如果这个原始数据集足够大且足够通用,那么预训练网络学到的特征的空间层次结构可以有效地作为视觉世界的通用模型,因此这些特征可用于各种不同的计算机视觉问题,即使这些新问题涉及的类别和原始任务完全不同。举个例子,你在 ImageNet 上训练了一个网络(其类别主要是动物和日常用品),然后将这个训练好的网络应用于某个不相干的任务,比如在图像中识别家具。这种学到的特征在不同问题之间的可移植性,是深度学习与许多早期浅层学习方法相比的重要优势,它使得深度学习对小数据问题非常有效。   本例中,假设有一个在 ImageNet 数据集(140 万张标记图像,1000 个不同的类别)上训练好的大型卷积神经网络。ImageNet 中包含许多动物类别,其中包括不同种类的猫和狗,因此可以认为它在猫狗分类问题上也能有良好的表现。   我们将使用 VGG16 架构,它由 Karen Simonyan 和 Andrew Zisserman 在 2014 年开发。对于ImageNet,它是一种简单而又广泛使用的卷积神经网络架构

从零开始学Keras(一)

烂漫一生 提交于 2021-02-18 01:52:19
点击上方“ 计算机视觉cv ”即可“进入公众号” 重磅干货第一时间送达 计算机视觉cv 【 导读 】Keras是一个由Python编写的开源人工神经网络库,可以作为Tensorflow、和Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化。本系列将教你如何从零开始学Keras,从搭建神经网络到项目实战,手把手教你精通Keras。相关内容参考《Python深度学习》这本书。 初识神经网络   我们先来看一个具体的神经网络示例,使用 Python 的 Keras 库来学习手写数字分类。如果你没用过 Keras或类似的库,可能无法立刻搞懂这个例子中的全部内容。甚至你可能还没有安装 Keras。没关系,可以看个例子先感受下。   我们这里要解决的问题是,将手写数字的灰度图像(28 像素×28 像素)划分到 10 个类别 中(0~9)。我们将使用 MNIST 数据集,它是机器学习领域的一个经典数据集,其历史几乎和这 个领域一样长,而且已被人们深入研究。这个数据集包含 60 000 张训练图像和 10 000 张测试图 像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中 的 NIST)在 20 世纪 80 年代收集得到。你可以将“解决”MNIST 问题看作深度学习的

从零开始学Keras(三)

依然范特西╮ 提交于 2021-02-18 01:46:23
点击上方“ 计算机视觉cv ”即可“进入公众号” 重磅干货第一时间送达 计算机视觉cv 【 导读 】Keras是一个由Python编写的开源人工神经网络库,可以作为Tensorflow、和Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化。本系列将教你如何从零开始学Keras,从搭建神经网络到项目实战,手把手教你精通Keras。相关内容参考《Python深度学习》这本书。 多分类问题   本节你会构建一个网络,将路透社新闻划分为 46 个互斥的主题。因为有多个类别,所以这是多分类(multiclass classification)问题的一个例子。因为每个数据点只能划分到一个类别,所以更具体地说,这是单标签、多分类(single-label, multiclass classification)问题的一个例子。如果每个数据点可以划分到多个类别(主题),那它就是一个多标签、多分类(multilabel, multiclass classification)问题。 路透社数据集   本节使用路透社数据集,它包含许多短新闻及其对应的主题,由路透社在 1986 年发布。它是一个简单的、广泛使用的文本分类数据集。它包括 46 个不同的主题:某些主题的样本更多,但训练集中每个主题都有至少 10 个样本。   与 IMDB 和 MNIST 类似,路透社数据集也内置为

保姆教程 | YOLOv5在建筑工地中安全帽佩戴检测的应用

孤街浪徒 提交于 2021-02-17 04:31:21
点击上方 “ 机器学习与生成对抗网络 ”,关注"星标" 获取有趣、好玩的前沿干货! 教程来自: https://github.com/PeterH0323/Smart_Construction 编辑:AI深度前沿视线 一、YOLO v5训练自己数据集教程 1.1 创建自己的数据集配置文件 1.2 创建每个图片对应的标签文件 1.3 文件放置规范 1.4 聚类得出先验框(可选) 1.5 选择一个你需要的模型 1.6 开始训练 1.7 看训练之后的结果 二、侦测 三、检测危险区域内是否有人 3.1 危险区域标注方式 3.2 执行侦测 3.3 效果:在危险区域里面的人体会被 红色框 选出来 四、生成 ONNX 五、增加数据集的分类 该项目是使用 YOLOv5 v2.x 来训练在智能工地安全领域中头盔目标检测的应用,先来一波演示! 指标 yolov5s 为基础训练, epoch = 50 分类 P R mAP0.5 总体 0.884 0.899 0.888 人体 0.846 0.893 0.877 头 0.889 0.883 0.871 安全帽 0.917 0.921 0.917 对应的 权重文件 :https://pan.baidu.com/share/init?surl=ELPhtW-Q4G8UqEr4YrV_5A,提取码: b981 yolov5m 为基础训练, epoch =