高斯

计算机视觉--SIFT算法

我是研究僧i 提交于 2020-03-08 21:25:36
1 SIFT描述子 1.1SIFT描述子简介 SIFT,即尺度不变特征变换(Scale-invariant feature transform,SIFT),是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。 1.2 SIFT算法实现步骤简述 SIFT算法实现特征匹配主要有三个流程,1、提取关键点;2、对关键点附加 详细的信息(局部特征),即描述符;3、通过特征点(附带上特征向量的关 键点)的两两比较找出相互匹配的若干对特征点,建立景物间的对应关系。 2 关键点检测的相关概念 2.1 哪些点是SIFT中要查找的关键点(特征点) 这些点是一些十分突出的点不会因光照、尺度、旋转等因素的改变而消 失,比如角点、边缘点、暗区域的亮点以及亮区域的暗点。既然两幅图像中 有相同的景物,那么使用某种方法分别提取各自的稳定点,这些点之间会有 相互对应的匹配点 2.2 什么是尺度空间 关键点检测的相关概念 尺度空间中各尺度图像的 模糊程度逐渐变大,能够模拟 人在距离目标由近到远时目标 在视网膜上的形成过程。 尺度越大图像越模糊。 根据文献《Scale-space theory: A basic tool for analysing structures at different scales》可知,高斯核是唯一可以产生 多尺度空间的核,一个

SIFT特征提取+匹配

别说谁变了你拦得住时间么 提交于 2020-03-08 10:51:11
SIFT特征提取+匹配 目录 SIFT特征提取+匹配 1. 算法描述 1.1 构建尺度空间 1.2 LoG近似DoG找到关键点 1.3 除去不好的特征点 1.4 关键点的表示 1.5 关键点描述子的生成​ 1.6 根据SIFT进行匹配 2. 实验要求 3.实验过程 3.1 实验数据集 ​ 3.2 sift特征提取 3.3 特征匹配 3.4 匹配筛选 4. 总结 4.1 SIFT特征特性: 4.2 SIFT特征的缺点 4.3 SIFT特征的用途 4.4 实验过程遇到的问题 1. 算法描述 特征描述子就是对关键点提取特征的过程,应该具备可重复性、可区分性、准确性、有效性和鲁棒性。SIFT(Scale-Invariant Feature Transform)是一种特征描述子。该描述子具有尺度不变性和光照不变性。 1.1 构建尺度空间 这里的尺度可以理解为图像的模糊程度,就是眼睛近视的度数。尺度越大细节越少,SIFT特征希望提取所有尺度上的信息,所以对图像构建尺度空间, 也就是实用不同的平滑核对图像进行平滑。这里的平滑核选用高斯核,空间尺度有高斯核尺度决定: 其中 是原图像,*是卷积符号, 对应尺度下的尺度图像, 是高斯核。 其中 G(x,y,σ) 是尺度可变高斯函数 (x,y)是空间坐标,是尺度坐标。σ大小决定图像的平滑程度,大尺度对应图像的概貌特征,小尺度对应图像的细节特征

自适应密度图adaptive density map generation for crowd counting 论文笔记

旧街凉风 提交于 2020-03-07 10:26:53
论文: http://visal.cs.cityu.edu.hk/static/pubs/conf/iccv19-dmapgen.pdf 代码:暂时没找到 ICCV 贡献: 这篇文章是深挖density map generation这一块的,以往density map一旦制作完,训练中是保持不变的,本文的切入点在于是否可以让density map中的generation的过程变得可以learning,从而随着模型地训练,去不断微调density map,使得产生更为合理的density map. 本文通过两种方式去动态调整density map, (1)采用一个refine density map 的模块去在训练过程中微调density map (2) 采用self-attention的model去从point annotation 自适应地产生density map 2.关于counting 任务地density map制作的小结 (1)geometry-adaptive (2) fix-kernel (3) geometry-adaptive 配合detection 以上三种方法制作density map本质上都是在每个人头点的位置加入一个2D的gaussian kernel,这是共同点,包括本文的自适应放那给发也是,不同的在于每个人头处采用的高斯核的尺寸不一样

[Scikit-learn] 2.5 Dimensionality reduction - ICA

丶灬走出姿态 提交于 2020-03-07 09:59:16
写在前面 数据降维的几种形式 数据降维的几种方法,包括 PCA 、 LDA 、 ICA 等,另外还有一种常用的降维方法就是 因子分析 。 关于这几种方法的各自的优劣,有必要之后跟进一下。 概率图角度理解 打开prml and mlapp发现这部分目录编排有点小不同,但神奇的是章节序号竟然都为“十二”。 prml:pca --> ppca --> fa mlapp:fa --> pca --> ppca 这背后又有怎样的隐情?不可告人的秘密又会隐藏多久? 基于先来后到原则,走prml路线。 首先,这部分内容,尤其是pca,都是老掉牙且稳定的技术,既然是统计机器学习,这次的目的就是借概率图来缕一遍思路,以及模型间的内在联系。 PPCA's PGM 我们要建立的是一套完整的知识体系,而非“拿来一用,用完就扔”的态度。 有菜鸡问了,为何你总是强调“体系”? 因为我是马刺队球迷。 首先,我希望大家重视prml的第12章开章这段话: " 本章中,我们⾸先介绍标准的、⾮概率的PCA⽅法,然后我们会说明,当求解线性⾼斯潜在变量模型的 ⼀种特别形式的最⼤似然解 时, PCA如何 ⾃然地产⽣ 。这种概率形式的表⽰⽅法会带来很多好处,例如在参数估计时可以使⽤EM算法,对混合PCA模型的推广以及主成分的数量可以从数据中⾃动确定的贝叶斯公式。最后,我们简短地讨论潜在变量概念的几个推广

面向软件工程师的卡尔曼滤波器

孤街醉人 提交于 2020-03-01 12:08:07
与我的朋友交谈时,我经常听到:“哦,卡尔曼(Kalman)滤波器……我经常学它,然后我什么都忘了”。好吧,考虑到卡尔曼滤波器(KF)是世界上应用最广泛的算法之一(如果环顾四周,你80%的技术可能已经在内部运行某种KF),让我们尝试将其弄清楚。 在这篇文章的结尾,你将对KF的工作原理,其背后的想法,为什么需要多个变体以及最常见的变体有一个直观而详细的了解。 状态估计 KF是所谓的状态估计算法的一部分。什么是状态估计?假设你有一个系统(让我们将其视为黑箱)。黑箱可以是任何东西:你的风扇,化学系统,移动机器人。对于这些系统中的每一个,我们都可以定义一个状态。状态是我们关心的变量向量,可以描述系统处于特定时间点的“状态”(这就是为什么将其称为状态)。“可以描述”是什么意思?这意味着,如果你了解当时的状态向量k和提供给系统的输入,则可以了解当时的k+1的系统状态(与此同时使用系统工作原理的一些知识)。 例如,假设我们有一个移动的机器人,并且我们关心其在空间中的位置(并且不在乎其方向)。如果我们将状态定义为机器人的位置(x, y)及其速度,( v x v_x v x ​ , v y v_y v y ​ )并且我们有一个机器人如何运动的模型,那么就足以确定机器人的位置以及下一个时刻的位置。 因此,状态估计算法估计系统的状态。为什么要估算呢?因为在现实生活中,外部观察者永远无法访问系统的真实状态

SLAM中的EKF,UKF,PF原理简介

拥有回忆 提交于 2020-02-27 05:17:01
这是我在知乎上问题写的答案,修改了一下排版,转到博客里。 原问题: 能否简单并且易懂地介绍一下多个基于滤波方法的SLAM算法原理? 目前SLAM后端都开始用优化的方法来做,题主想要了解一下之前基于滤波的方法,希望有大神能够总结一下各个原理(EKF,UKF,PF,FastSLAM),感激不尽。 作者:半闲居士 链接:https://www.zhihu.com/question/46916554/answer/103411007 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。   我怎么会写得那么长……如果您有兴趣可以和我一块把公式过一遍。   要讲清这个问题,得从状态估计理论来说。先摆上一句名言: 状态估计乃传感器之本质。(To understand the need for state estimation is to understand the nature of sensors.)   任何传感器,激光也好,视觉也好,整个SLAM系统也好,要解决的问题只有一个: 如何通过数据来估计自身状态。 每种传感器的测量模型不一样,它们的精度也不一样。换句话说,状态估计问题,也就是“ 如何最好地使用传感器数据 ”。可以说,SLAM是状态估计的一个特例。 1. 离散时间系统的状态估计   记机器人在各时刻的状态为 ,其中 是离散时间下标。在SLAM中

蓝桥杯2013-省赛-C/C++-A组1题

拜拜、爱过 提交于 2020-02-26 23:19:27
之前开学了比较忙,一直没时间做题,最近抽时间做做题…… 题目 题目标题: 高斯日记 大数学家高斯有个好习惯:无论如何都要记日记。 他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210 后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢? 高斯出生于:1777年4月30日。 在高斯发现的一个重要定理的日记上标注着:5343,因此可算出那天是:1791年12月15日。 高斯获得博士学位的那天日记上标着:8113 请你算出高斯获得博士学位的年月日。 提交答案的格式是:yyyy-mm-dd, 例如:1980-03-21 请严格按照格式,通过浏览器提交答案。 注意:只提交这个日期,不要写其它附加内容,比如:说明性的文字。 代码 1 /*2013 蓝桥-省-A-1 */ 2 #include<iostream> 3 int leap_mon[13]={0,31,29,31,30,31,30,31,31,30,31,30,31}; 4 int comm_mon[13]={0,31,28,31,30,31,30,31,31,30,31,30,31}; 5 bool isleap(int y){ 6 if((y%4==0&&y%100!=0)||(y%400==0)) 7

粒子滤波概述

让人想犯罪 __ 提交于 2020-02-25 23:19:20
粒子滤波 (PF: Particle Filter) 的思想基于蒙特卡洛方法 (Monte Carlo methods) ,它是利用粒子集来表示概率,可以用在任何形式的状态空间模型上。其核心思想是通过从后验概率中抽取的随机状态粒子来表达其分布,是一种顺序重要性采样法 (Sequential Importance Sampling) 。简单来说,粒子滤波法是指通过寻找一组在状态空间传播的随机样本对概率密度函数进行近似,以样本均值代替积分运算,从而获得状态最小方差分布的过程。这里的样本即指粒子 , 当样本数量 N →∝时可以逼近任何形式的概率密度分布。 尽管算法中的概率分布只是真实分布的一种近似,但由于非参数化的特点,它摆脱了解决非线性滤波问题时随机量必须满足高斯分布的制约,能表达比高斯模型更广泛的分布,也对变量参数的非线性特性有更强的建模能力。因此,粒子滤波能够比较精确地表达基于观测量和控制量的后验概率分布,可以用于解决 SLAM 问题。 粒子滤波的应用 粒子滤波技术在非线性、非高斯系统表现出来的优越性,决定了它的应用范围非常广泛。另外,粒子滤波器的多模态处理能力,也是它应用广泛有原因之一。国际上,粒子滤波已被应用于各个领域。在经济学领域,它被应用在经济数据预测;在军事领域已经被应用于雷达跟踪空中飞行物,空对空、空对地的被动式跟踪;在交通管制领域它被应用在对车或人视频监控

开关问题(高斯消元)

拟墨画扇 提交于 2020-02-25 20:46:10
开关问题(ACwing) Description 有N个相同的开关,每个开关都与某些开关有着联系,每当你打开或者关闭某个开关的时候, 其他的与此开关相关联的开关也会相应地发生变化,即这些相联系的开关的状态如果原来为开就变为关,如果为关就变为开。 你的目标是经过若干次开关操作后使得最后N个开关达到一个特定的状态。 对于任意一个开关,最多只能进行一次开关操作。 你的任务是,计算有多少种可以达到指定状态的方法。(不计开关操作的顺序) 输入格式 输入第一行有一个数K,表示以下有K组测试数据。 每组测试数据的格式如下: 第一行 一个数N(0 < N < 29)。 第二行 N个0或者1的数,表示开始时N个开关状态。 第三行 N个0或者1的数,表示操作结束后N个开关的状态。 接下来 每行两个数I J,表示如果操作第 I 个开关,第J个开关的状态也会变化。 每组数据以 0 0 结束。 输出格式 如果有可行方法,输出总数,否则输出 Oh,it's impossible~!! 。 Solution 每个开关只能操作一次,求一个目标状态 可设数组x,x[i]表示是(取值为 1 )否(取值为 0 )对第 i 个开关操作,任务是求出x[i] 参照开关之间的关系,我们可以对每个开关列一个方程,一共 n 个方程 第 i 个方程等号右边的第 j 个单项式为 a[i][j]*x[j] , a[i][j]表示操作开关

图像处理基础

雨燕双飞 提交于 2020-02-22 06:41:56
直方图/高斯录播/直方图均衡化/原理 文章目录 1.原理 1.1直方图原理 1.2高斯滤波原理 1.3直方图均衡化原理 2.实验 2.1原图 2.2直方图 2.3高斯滤波 2.4直方图均衡化 1.原理 1.1直方图原理 通过一个变换,将输入图像的灰度级转换为均匀分布度函数为 P s ( s ) = 1 L − 1 P_s(s) = \frac{1}{L-1} P s ​ ( s ) = L − 1 1 ​ 1.2高斯滤波原理 1.3直方图均衡化原理 s = T ( r ) = ( L − 1 ) ∫ 0 r P r ( c )   d c s = T(r) = (L-1)\int_0^r {P_r(c)} \,{\rm d}c s = T ( r ) = ( L − 1 ) ∫ 0 r ​ P r ​ ( c ) d c s s s 为变换后的灰度级, r r r 为变换前的灰度级 P r ( r ) P_r(r) P r ​ ( r ) 为变换前的概率密度函数 2.实验 2.1原图 2.2直方图 2.3高斯滤波 2.4直方图均衡化 来源: CSDN 作者: yuyaoshiniba 链接: https://blog.csdn.net/yuyaoshiniba/article/details/104422775