高斯

有关矩阵的一些问题

混江龙づ霸主 提交于 2019-12-01 01:15:26
首先谈到矩阵,那么就会想到线性代数,但我太蒟蒻了,所以并不想谈那么深,所以就只说说其中一部分; 首先说 初等行变换 :   1.用一个 非0 的数乘某一行   2.把其中一行的若干倍加到 另一 行上;   3.交换两行的位置; 当然,初等列变换的定义与初等行变换的定义类似,这里便不多说了; 接着说 高斯消元:    一个矩阵通过初等变换后所能得到的矩阵叫做增广矩阵。   我们把阶梯型增广矩阵变换为简化形阶梯矩阵的过程就是高斯消元;   基本思想:对于一个未知量xi,找到一个xi的系数非0,但x1~xi-1的系数都是零的方程,然后用初等行变换把其他方程的xi的系数全部消成0;   在高斯消元完成后,若存在系数都是0,但常数不是0的情况,方程无解;   🐖元(主元):系数不全为0的行的个数就是主元的个数;   自由元:系数全为0,常数也是0的个数就是自由元的个数;   通常情况下:一道题并不会直接给出n个n元一次方程组。如果给了n+1个二元方程组,那么我们可以通过相邻两个方程做差,把它变成 n个n元一次方程组 ,然后进行高斯消元求解;    #include <bits/stdc++.h> #define eps 1e-8 using namespace std; double a[101][102]; int n; bool GUASS() { for(int i=1;i<=n;i+

遵循统一的机器学习框架理解高斯混合模型(GMM)

不想你离开。 提交于 2019-11-30 18:19:22
遵循统一的机器学习框架理解高斯混合模型(GMM) 一、前言 本文参考了网络上诸多资料,特别是B站UP shuhuai008 的视频,讲解东西也是我最喜欢的方式:从多个角度阐述和理解问题。 二、理解 统一的机器学习框架(MLA): 1.模型(Model) 2.策略(Loss) 3.算法(Algorithm) Model 题外话:所谓模型,就是我们建模的过程,也是我们对现实(已观测)的一种假设,比如前几篇介绍SVM,LR的假设就是:我们认为可以使用一个超平面区分这些数据。模型内涵了我们的 归纳偏置 或者说是 归纳偏好 。 几何角度: 对于已观测到的数据 \(X=\{x^i,x^2 \cdots ,x^n\}\) ,由一个概率生成模型生成而来 \(P(X|\theta)\) ,其中 \(\theta\) 就是这个模型的参数。由于我们压根不知道 \(P(X|\theta)\) 应该是什么形式,在 高斯混合模型 中,我们假设(归纳偏好)这些数据由K个高斯模型混合生成的数据,即: \(P(X)\) 由K个高斯模型 叠加 而来。 概率密度函数由多个高斯分布 叠加 (加权平均)而来 \[p(x) = \sum_{k=1}^{K} \alpha_k p(x|\mu_k,\Sigma_k),\;\;\sum_{k=1}^K \alpha_k=1,\;\;\alpha_k \; 表示加权值\]

deep_learning_Github_初学者教程

天大地大妈咪最大 提交于 2019-11-30 15:59:29
Github_link_from: https://github.com/lawlite19/MachineLearning_Python 机器学习算法Python实现 目录 机器学习算法Python实现 一、线性回归 1、代价函数 2、梯度下降算法 3、均值归一化 4、最终运行结果 5、使用scikit-learn库中的线性模型实现 二、逻辑回归 1、代价函数 2、梯度 3、正则化 4、S型函数(即) 5、映射为多项式 6、使用的优化方法 7、运行结果 8、使用scikit-learn库中的逻辑回归模型实现 逻辑回归_手写数字识别_OneVsAll 1、随机显示100个数字 2、OneVsAll 3、手写数字识别 4、预测 5、运行结果 6、使用scikit-learn库中的逻辑回归模型实现 三、BP神经网络 1、神经网络model 2、代价函数 3、正则化 4、反向传播BP 5、BP可以求梯度的原因 6、梯度检查 7、权重的随机初始化 8、预测 9、输出结果 四、SVM支持向量机 1、代价函数 2、Large Margin 3、SVM Kernel(核函数) 4、使用中的模型代码 5、运行结果 五、K-Means聚类算法 1、聚类过程 2、目标函数 3、聚类中心的选择 4、聚类个数K的选择 5、应用——图片压缩 6、使用scikit-learn库中的线性模型实现聚类 7

opencv图像处理之常见滤波器

大兔子大兔子 提交于 2019-11-30 15:12:24
图像平滑 Smoothing, also called blurring, is a simple and frequently used image processing operation. 平滑,也叫模糊. 本质就是把某点的像素值转换为其及其周围像素值的不同权重的叠加.h(k,l)即为卷积核,或者叫滤波器filter. 有几种常见的filter Normalized Box Filter Gaussian Filter Median Filter Bilateral Filter 均值滤波 权重矩阵如上. img2= cv2.blur(img,(5,5)) The call blur(src, dst, ksize, anchor, borderType) is equivalent to boxFilter(src, dst, src.type(), anchor, true, borderType). https://docs.opencv.org/master/d4/d86/group__imgproc__filter.html#ga8c45db9afe636703801b0b2e440fce37 效果如下: 高斯滤波 即假设某一位置的像素和其邻域像素符合高斯分布.具体的说的话,就是每一位置的像素的权重符合高斯分布.这样的话,给定一个高斯分布,及高斯核的大小

ceshi

荒凉一梦 提交于 2019-11-30 12:08:49
\documentclass[12pt]{article}%{ctexart} \usepackage{ctex} \usepackage{amsmath} \usepackage{amssymb} \usepackage{amsfonts} \usepackage{changepage} \usepackage{graphicx} \usepackage{url} %\usepackage{setspace} \title{一周进展报告} \author{杨拓} \date{\today} \setlength{\parskip}{0.5\baselineskip} \begin{document} \maketitle %生成文档目录 \tableofcontents %构建各章节的一级小结 \pagebreak \section{SIFT} \subsection{SIFT简介\cite{2}} \textbf{尺度不变特征转换(Scale-invariant feature transform或SIFT)},由David Lowe于1999年首次提出,作用是将一幅图像映射为一个局部特征向量集;特征向量具有平移、缩放、旋转不变性,同时对光照变化、仿射及投影变换也有一定的不变性。 \begin{adjustwidth}{1cm}{1cm} SIFT算法的特点有:~\\ 1

SIFT

我是研究僧i 提交于 2019-11-30 12:07:58
\section{SIFT} \subsection{SIFT简介\cite{2}} \textbf{尺度不变特征转换(Scale-invariant feature transform或SIFT)},由David Lowe于1999年首次提出,作用是将一幅图像映射为一个局部特征向量集;特征向量具有平移、缩放、旋转不变性,同时对光照变化、仿射及投影变换也有一定的不变性。 \begin{adjustwidth}{1cm}{1cm} SIFT算法的特点有:~\\ 1.SIFT特征是图像的局部特征,其对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性;\\ 2.独特性(Distinctiveness)好,信息量丰富,适用于在海量特征数据库中进行快速、准确的匹配;\\ 3.多量性,即使少数的几个物体也可以产生大量的特征向量;\\ 4.高速性,经优化的匹配算法甚至可以达到实时的要求;\\ 5.可扩展性,可以很方便的与其他形式的特征向量进行联合。 \end{adjustwidth} \begin{adjustwidth}{1cm}{1cm} SIFT算法的基本步骤为:~\\ 1.高斯差分(DoG)滤波;\\ 2.尺度空间的极值检测和关键点位置确定;\\ 3.关键点方向确定;\\ 4.构建关键点特征描述符; \end{adjustwidth}

从寻找谷神星的过程,谈最小二乘法实现多项式拟合

橙三吉。 提交于 2019-11-30 10:47:45
科学史上众星云集,璨若星河。这些牛人基本上都是天才,但也不乏无名之辈凭借匪夷所思、骇世惊俗的猜想而立足于巨星之列。比如,门捷列夫,整了一张留空的元素周期表,引得全世界的化学家去做填空题。还有一位德国的中学老师,名唤约翰·提丢斯(Johann Daniel Titius)的,在1766年写下了这么一个数列: (0+4)/10 = 0.4 (3+4)/10 = 0.7 (6+4)/10 = 1.0 (12+4)/10 = 1.6 (24+4)/10 = 2.8 (48+4)/10 = 5.2 (96+4)/10 = 10.0 (192+4)/10 = 19.6 (384+4)/10 = 38.8 ... 当时,人们已知太阳系有六大行星,即水星、金星、地球、火星、木星、土星。如果以日地距离(约1.5亿公里)为一个天文单位,则六大行星距离太阳的距离,恰好接近提丢斯的这个数列,并且留下了无限的遐想!这个数列被称为提丢斯——波得定则 1781年,英籍德国人赫歇尔在接近19.6的位置上(即数列中的第八项)发现了天王星,从此,人们就对这一定则深信不疑了。根据这一定则,在数列的第五项即2.8的位置上也应该对应一颗行星,只是还没有被发现。于是,许多天文学家和天文爱好者便以极大的热情,踏上了寻找这颗新行星的征程。 1801年新年的晚上,意大利神父朱塞普·皮亚齐还在聚精会神地观察着星空。突然

如何理解最小二乘法?

ε祈祈猫儿з 提交于 2019-11-30 04:20:21
最小平方法是十九世纪统计学的主题曲。 从许多方面来看, 它之于统计学就相当于十八世纪的微积分之于数学。 ----乔治·斯蒂格勒的《The History of Statistics》 1 日用而不知 来看一个生活中的例子。比如说,有五把尺子: 用它们来分别测量一线段的长度,得到的数值分别为(颜色指不同的尺子): 之所以出现不同的值可能因为: 不同厂家的尺子的生产精度不同 尺子材质不同,热胀冷缩不一样 测量的时候心情起伏不定 ...... 总之就是有误差,这种情况下,一般取平均值来作为线段的长度: 日常中就是这么使用的。可是作为很事'er的数学爱好者,自然要想下: 这样做有道理吗? 用调和平均数行不行? 用中位数行不行? 用几何平均数行不行? 2 最小二乘法 换一种思路来思考刚才的问题。 首先,把测试得到的值画在笛卡尔坐标系中,分别记作 : 其次,把要猜测的线段长度的真实值用平行于横轴的直线来表示(因为是猜测的,所以用虚线来画),记作 : 每个点都向 做垂线,垂线的长度就是 ,也可以理解为测量值和真实值之间的误差: 因为误差是长度,还要取绝对值,计算起来麻烦,就干脆用平方来代表误差: 总的误差的平方就是: 因为 是猜测的,所以可以不断变换: 自然,总的误差 也是在不断变化的。 法国数学家,阿德里安-馬里·勒讓德(1752-1833,这个头像有点抽象)提出让总的误差的平方最小的

蓝桥杯程序设计大赛第四届省赛本科B组

て烟熏妆下的殇ゞ 提交于 2019-11-30 00:31:14
大数学家高斯有个好习惯:无论如何都要记日记。 他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210 后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢? 高斯出生于:1777年4月30日。 在高斯发现的一个重要定理的日记上标注着:5343,因此可算出那天是:1791年12月15日。 高斯获得博士学位的那天日记上标着:8113 请你算出高斯获得博士学位的年月日。 提交答案的格式是:yyyy-mm-dd, 例如:1980-03-21 请严格按照格式,通过浏览器提交答案。 注意:只提交这个日期,不要写其它附加内容,比如:说明性的文字。 # include <stdio.h> int isLeap ( int y ) ; int nday ( int y , int m , int d ) ; void ymd ( int n ) ; int main ( void ) { int n = 8113 ; int yb = 1777 , mb = 4 , db = 30 ; //birth n = n - 1 + nday ( yb , mb , db ) ; int yp , np ; //print for ( int i = yb ; n > 0 ; i ++

影响力最大化,传播模型

一笑奈何 提交于 2019-11-29 23:38:03
基本传播模型 IC LT IM算法分类 贪心算法 KK(2003) CELF(2007)https://www.cnblogs.com/aaronhoo/p/6548760.html DegreeDiscount(2009) 基于度数 中心度 MaxDegree 选择图中度数最大的K个度。但会有邻居重叠 SCG 基于社区 OASNET 基于社区的动态规划。假设社区是不联系的,但真实社区联系 CGA 基于社区的贪心 网络稀疏化 混合 •HPG(KK+启发) 评价指标 效率 效果 论文 Low-dimensional Vectors Learning for Influence Maximization 定义传播方法,使用向量和目标函数学习,通过目标函数学习,得到每个向量 论文思路: 使用自创的传播方法来定义传播(每个顶点有向量,用向量在计算传播概率) 参考pagerank来计算每个顶点的初始能量 根据能量使用贪心算法选择边缘概率最大的k个顶点 论文:Influence Maximization via Representation Learning 在训练头节点的嵌入向量的时候,约束为他和级联序列中其他顶点的相似度,还有一个约束是她能够表示这个级联的长度,也就是一个神经网络里有两个loss(这个方法是不是可以用到其他的嵌入中,比如医疗) 由于之前学习可以得到头节点影响其他节点的概率