直线方程

浅析椭圆曲线加密算法(ECC)

﹥>﹥吖頭↗ 提交于 2019-11-29 16:47:57
本文首发于先知社区,原文链接: https://xz.aliyun.com/t/6295 数学基础 黎曼几何中的“平行线” 欧几里得《几何原本》中提出五条公设: 过相异两点,能作且只能作一直线。 有限直线可以任意地延长。 以任一点为圆心、任意长为半径,可作一圆。 凡直角都相等。 两直线被第三条直线所截,如果同侧两内角和小于两个直角, 则两直线作会在该侧相交(平行公设)。 《几何原本》中只有第29条命题, 一条直线与两条平行直线相交,则所成的内错角相等,同位角相等,且同旁内角之和等于两直角 才用到了第五公设,其他命题并没有使用到,因此一些数学家提出疑问:第五公设能否不作为公设,而作为一条定理?能否靠前四条公设证明之?因此出现了长期的关于“平行线理论”的讨论。欧氏几何讲“过直线外一点有且只有一条直线与已知直线平行”,后面就有个罗氏几何(罗巴切夫斯基)讲“过直线外一点至少存在两条直线和已知直线平行”,那么是否有“过直线外一点,不能做直线和已知直线平行?”,黎曼几何就回答了这个问题。 黎曼几何中不承认平行线的存在,即在同一平面内任何两条直线都有公共点(交点)。另一条公设讲:直线可以无限延长,但总的长度是有限的。 黎曼几何也被称为椭圆几何。椭圆曲线就是基于黎曼几何的“平行线理论”。 定义平行线相较于无穷远点P∞,使平面上所有直线都有唯一的交点。 无穷远点的性质: 一条直线只有一个无穷远点。

8.支撑向量机SVM

蹲街弑〆低调 提交于 2019-11-29 16:11:34
1.什么是SVM 下面我们就来介绍一些SVM(Support Vector Machine),首先什么是SVM,它是做什么的?SVM,中文名是支撑向量机,既可以解决分类问题,也可以解决回归问题,我们来看看它的思想是怎么样的。 这是一个简单的分类问题,我们很容易想到可以找一个决策边界,那么在决策边界上方的分为红色的点、下方则分为蓝色的点。可以这个决策边界选在什么地方好呢? 可以看到图中两个蓝色的线,都可以叫做决策边界,对于这种决策边界不唯一的问题,通常叫做不适定问题。可以回想一下逻辑回归是如何解决不适定问题的,逻辑回归是定义了一个概率函数,也就是所谓的sigmod函数,根据这个概率函数进行建模,形成了一个损失函数,我们最小化这个损失函数,从而求出一个决策边界,这就是逻辑回归的思路。 支撑向量机的方法稍微有一些不同,假设我们以上面那根蓝色的线作为决策边界的话。显然非常好的将我们的训练数据集分成了两部分,但是我们在意的是在测试集、也就是未知的数据表现的怎么样,也就是模型的泛化能力如何。是否能很好的得出那些未知的数据的分类结果呢? 比如又来了一个新的点,根据决策边界我们可以得出,这个点是属于蓝色的点,但是我们发现把它归为红色的点更好一些,显然它距离红色的点更近一些。但是之所以会出现这个结果,是因为决策边界距离红色的点太近了。所以我们说找到的这个决策边界泛化能力太差了。

直线方程和直线系方程

╄→гoц情女王★ 提交于 2019-11-28 23:07:12
一、直线方程 点斜式: \(y-y_1=k(x-x_1)\) (其中 \(l\) 过定点 \(P_1(x_1,y_1)\) ,斜率为 \(k\) ); 缺陷:不能表示斜率不存在的直线; 斜截式: \(y=kx+b\) ( \(k\) 是斜率, \(b\) 是 \(y\) 截距); 缺陷:不能表示斜率不存在的直线; 两点式: \(\cfrac{y-y_1}{y_2-y_1}=\cfrac{x-x_1}{x_2-x_1}(x_1\neq x_2,y_1\neq y_2)\) (两点是 \(P_1(x_1,y_1)、P_2(x_2,y_2)\) ), 缺陷:不能表示斜率不存在的和斜率为0的直线; 截距式: \(\cfrac{x}{a}+\cfrac{y}{b}=1(a\neq 0,b\neq 0)\) ( \(a,b\) 分别是横纵截距), 缺陷:不能表示过原点的直线; 一般式: \(Ax+By+C=0\) , 没有上述直线方程的缺陷。 二、直线的参数方程 以动点到定点的有向线段的数量为参数, \(\left\{\begin{array}{l}{x=x_0+cos\theta\cdot t}\\{y=y_0+sin\theta\cdot t}\end{array}\right.(t为参数)\) 如何将一个直线的普通方程转化为参数方程? 1 三、直线系方程 定点直线系方程 经过定点 \(P

凸多边形最优三角剖分

…衆ロ難τιáo~ 提交于 2019-11-28 19:49:56
一、 问题描述 多边形是平面上一条分段线性的闭曲线。也就是说,多边形是由一系列首尾相接的直线段组成的。组成多边形的各直线段称为该多边形的边。多边形相接两条边的连接点称为多边形的顶点。若多边形的边之间除了连接顶点外没有别的公共点,则称该多边形为简单多边形。一个简单多边形将平面分为 3 个部分:被包围在多边形内的所有点构成了多边形的内部;多边形本身构成多边形的边界;而平面上其余的点构成了多边形的外部。当一个简单多边形及其内部构成一个闭凸集时,称该简单多边形为凸多边形。也就是说凸多边形边界上或内部的任意两点所连成的直线段上所有的点均在该凸多边形的内部或边界上。 通常,用多边形顶点的逆时针序列来表示一个凸多边形,即 P={v 0 ,v 1 ,… ,v n-1 } 表示具有 n 条边 v 0 v 1 , v 1 v 2 , … ,v n-1 v n 的一个凸多边形,其中,约定 v 0 =v n 。 若 v i 与 v j 是多边形上不相邻的两个顶点,则线段 v i v j 称为多边形的一条弦。弦将多边形分割成凸的两个子多边形 {v i ,v i+1 ,… ,v j } 和 {v j ,v j+1 ,… ,v i } 。多边形的三角剖分是一个将多边形分割成互不相交的三角形的弦的集合 T 。图 1 是一个凸多边形的两个不同的三角剖分。 图 1 一个凸多边形的 2 个不同的三角剖分 在凸多边形 P

泛函四大定理:

荒凉一梦 提交于 2019-11-28 16:29:32
开映射定理和闭图像定理及其应用 - dhchen 的文章 - 知乎 https://zhuanlan.zhihu.com/p/28093420 泛函分析随记(一)Hahn-Banach定理 - 陆艺的文章 - 知乎 https://zhuanlan.zhihu.com/p/53079862 hahn banach延拓定理里的一小步? - 知乎 https://www.zhihu.com/question/263942231 小完结:Hahn-Banach定理及其应用 - dhchen的文章 - 知乎 https://zhuanlan.zhihu.com/p/28496285 泛函分析在经济领域有什么应用吗? - 知乎 https://www.zhihu.com/question/31913447 泛函分析在经济学中的作用有以下几点: 1.价格体系本身是商品空间上的一个线性泛函,利用Hahn-Banach定理我们可以非常容易地证明福利经济学第二定理。 2.要想 严格 地掌握最优控制,需要泛函分析的基础。只是单纯应用的话倒不必要,但是我还是强烈建议经济学的博士生应该掌握Banach空间的微分学,这不光是变分法的问题,而且涉及到经济学很多常用的非线性动力学问题。 对于随机最优控制问题,我们一般有随机Pontryagin最大值原理和Hamilton-Jacobi

5.6算法-分类-svm-支持向量机

血红的双手。 提交于 2019-11-26 22:37:51
https://blog.csdn.net/u011630575/article/details/78916747 SVM SVM:Support Vector Machine 中文名:支持向量机 学习模型 有监督学习:需要事先对数据打上分类标签,这样机器就知道数据属于哪一类。 无监督学习:数据没有打上分类标签,有可能因为不具备先验知识,或打标签的成本很高,需要机器代替我们部分完成改工作,比如将数据进行聚类,方便后人工对每个类进行分析。 SVM 是有监督的学习模型:可以进行模式识别、分类以及回归分析。 SVM工作原理 示例: 桌面上有两种颜色混乱的小球,我们将这两种小球来区分开,我们猛拍桌子小球会腾起,在腾空的那一刹那,会出现一个水平切面,将两种颜色的球分开来。 原因: 二维平面无法找出一条直线来区分小球颜色,但是在三位空间。我们可以找到一个平面来区分小球颜色,该平面我们叫做超平面。 SVM计算过程: 就是帮我们找到一个超平面的过程,该超平面就是 SVM分类器。 分类间隔 我们在示例中,会找到一个决策面来将小球颜色分离,在保证决策面C不变,且分类不产生错误的情况下,我们可以移动决策面,来产生两个极限位置:决策面A和决策面B,分界线C就是最优决策面,极限位置到最优决策面的距离就是 分类间隔 。 我们可以转动最优决策面,会发现存在多个最优决策面,它们都能把数据集正确分开

[转]机器学习资料(非常好理解)

天大地大妈咪最大 提交于 2019-11-26 16:55:52
先从回归(Regression)问题说起。我在本吧已经看到不少人提到如果想实现强AI,就必须让机器学会观察并总结规律的言论。具体地说,要让机器观察什么是圆的,什么是方的,区分各种颜色和形状,然后根据这些特征对某种事物进行分类或预测。其实这就是回归问题。 如何解决回归问题?我们用眼睛看到某样东西,可以一下子看出它的一些基本特征。可是计算机呢?它看到的只是一堆数字而已,因此要让机器从事物的特征中找到规律,其实是一个如何在数字中找规律的问题。 例:假如有一串数字,已知前六个是1、3、5、7,9,11,请问第七个是几? 你一眼能看出来,是13。对,这串数字之间有明显的数学规律,都是奇数,而且是按顺序排列的。 那么这个呢?前六个是0.14、0.57、1.29、2.29、3.57、5.14,请问第七个是几? 这个就不那么容易看出来了吧!我们把这几个数字在坐标轴上标识一下,可以看到如下图形: 用曲线连接这几个点,延着曲线的走势,可以推算出第七个数字——7。 由此可见,回归问题其实是个曲线拟合(Curve Fitting)问题。那么究竟该如何拟合?机器不可能像你一样,凭感觉随手画一下就拟合了,它必须要通过某种算法才行。 假设有一堆按一定规律分布的样本点,下面我以拟合直线为例,说说这种算法的原理。 其实很简单,先随意画一条直线,然后不断旋转它。每转一下,就分别计算一下每个样本点和直线上对应点的距离

线性回归python实现

人盡茶涼 提交于 2019-11-26 15:50:09
一、什么是线性回归(Linear Regression) 维基百科:线性回归 在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。 线性回归最简单的定义:给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小,如果这个函数曲线是一条直线,那就被称为线性回归 二、最小二乘法的引用 在数据的统计分析中,数据之间即变量x与y之间的相关性研究非常重要,通过在直角坐标系中做散点图的方式我们会发现很多统计数据近似一条直线,它们之间或者正相关或者负相关。虽然这些数据是离散的,不是连续的,我们无法得到一个确定的描述这种相关性的函数方程,但既然在直角坐标系中数据分布接近一条直线,那么我们就可以通过画直线的方式得到一个近似的描述这种关系的直线方程。 当然,从前面的描述中不难看出,所有数据都分布在一条直线附近,因此这样的直线可以画出很多条,而我们希望找出其中的一条,能够最好地反映变量之间的关系。换言之,我们要找出一条直线,使这条直线“最贴近”已知的数据点 直线表达式: (可知只需求得a,b即可确定这条直线) “最小二乘法”的核心就是保证所有数据偏差的平方和最小。(“平方”的在古时侯的称谓为“二乘”) 使用偏导: 这两个方程中xi和yi都是知道的,很容易就求得a和b了 三、回归系数公式推导 假定被解释变量Y与多个解释变量

拟合方法求直线方程系数

本小妞迷上赌 提交于 2019-11-26 13:56:28
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/MarsJohn/article/details/54911788 在数据的统计分析中,数据之间即变量x与Y之间的相关性研究非常重要,通过在直角坐标系中做散点图的方式我们会发现很多统计数据近似一条直线,它们之间或者正相关或者负相关。虽然这些数据是离散的,不是连续的,我们无法得到一个确定的描述这种相关性的函数方程,但既然在直角坐标系中数据分布接近一条直线,那么我们就可以通过画直线的方式得到一个近似的描述这种关系的直线方程。当然,从前面的描述中不难看出,所有数据都分布在一条直线附近,因此这样的直线可以画出很多条,而我们希望找出其中的一条,能够最好地反映变量之间的关系。换言之,我们要找出一条直线,使这条直线“最贴近”已知的数据点,设此直线方程为: 这里的是为了区分Y的实际值y(这里的实际值就是统计数据的真实值,我们称之为观察值),当x取值(i=1,2,3……n)时,Y的观察值为,近似值为(或者说对应的纵坐标是)。 其中式叫做Y对x的回归直线方程,b叫做回归系数。要想确定回归直线方程,我们只需确定a与回归系数b即可。 设x,Y的一组观察值为: i = 1,2,3……n 其回归直线方程为: 当x取值(i=1,2,3……n)时

【学习笔记】动态规划—各种 DP 优化

雨燕双飞 提交于 2019-11-26 09:20:18
【学习笔记】动态规划—各种 DP 优化 【大前言】 个人认为贪心, \(dp\) 是最难的,每次遇到题完全不知道该怎么办,看了题解后又瞬间恍然大悟(TAT)。这篇文章也是花了我差不多一个月时间才全部完成。 【进入正题】 用动态规划解决问题具有 空间耗费大 、 时间效率高 的特点,但也会有时间效率不能满足要求的时候,如果算法有可以优化的余地,就可以考虑时间效率的优化。 【DP 时间复杂度的分析】 \(DP\) 高时间效率的关键在于它减少了“ 冗余 ”,即不必要的计算或重复计算部分,算法的冗余程度是决定算法效率的关键。而动态规划就是在将问题规模不断缩小的同时,记录已经求解过的子问题的解,充分利用求解结果,避免了反复求解同一子问题的现象,从而减少“ 冗余 ”。 但是,一个动态规划问题很难做到完全消除“ 冗余 ”。 下面给出动态规划时间复杂度的决定因素: 时间复杂度 \(=\) 状态总数 \(×\) 每个状态转移的状态数 \(×\) 每次状态转移的时间 【DP 优化思路】 一:减少状态总数 \((1).\) 改进状态表示 \((2).\) 选择适当的规划方向 二:减少每个状态转移的状态数 \((1).\) 四边形不等式和决策的单调性 \((2).\) 决策量的优化 \((3).\) 合理组织状态 \((4).\) 细化状态转移 三:减少状态转移的时间 \((1).\) 减少决策时间 \(