对数

对数及运算法则

ぐ巨炮叔叔 提交于 2020-03-25 06:29:45
1.对数源于指数,是指数函数反函数   因为:y = a x   所以:x = log a y 2. 对数的定义   【定义】如果 N=a x (a>0,a≠1),即 a 的 x 次方等于 N ( a >0,且 a ≠1),那么数 x 叫做以 a 为底 N 的对数(logarithm),记作:    x=log a N   其中, a 叫做对数的底数, N 叫做真数, x 叫做 “以 a 为底 N 的对数”。   2.1对数的表示及性质:     1 . 以 a 为底 N 的对数记作: log a N     2.以10为底的常用对数: lg N = log 10 N     3.以无理数e(e=2.71828...)为底的自然对数记作: ln N = log e N      4.零没有对数.      5.在实数范围内,负数无对数。 [3]在虚数范围内,负数是有对数的。 -------------------------------------------------------------------------------------------------------------------------------------   注: 自然对数的底数 e :https://www.guokr.com/article/50264/     细胞分裂现象是不间断、连续的

【Vue】使用计算属性对数组元素进行过滤

梦想与她 提交于 2020-02-29 15:33:11
<div id='app'> answer: <li v-for="item in enumbable">{{item}}</li> </div> <script> var vm = new Vue({ el:'#app', data:{ lists:[2,1,3,4,5,6,7,8] }, computed:{ enumbable:function(){ return this.lists.filter(function(value){ return value % 2 === 0 }) } } }) 来源: CSDN 作者: 交大彭于晏 链接: https://blog.csdn.net/weixin_42191575/article/details/104572973

[Java高级](三)时间复杂度计算

懵懂的女人 提交于 2020-02-02 04:21:44
正值疫情,家中闭关,早起看新闻确诊人数已过万,不禁唏嘘,在此真切希望长风破浪会有时,直挂云帆济沧海。感激奋斗在一线的医护人员。 时间复杂度 1、概念 2、各时间复杂度介绍 2.1、O(1) 2.2、O(logn)、O(nlogn)对数阶时间复杂度 2.3、O(m+n)、O(m*n) 2.3.1加法法则 2.3.2 乘法法则 2.3.3 循环不仅与n有关,还与执行循环所满足的判断条件有关。 1、概念 时间复杂度是指 算法执行语句 执行的 次数 。 常见的时间复杂度有以下几种: 描述 时间复杂度 常数阶 O(1) 对数阶 O(logn) 线性阶 O(n) 线性对数阶 O(nlogn) 平方阶 O(n²) 立方阶 O(n³) n次方阶 O(mⁿ) 指数阶 O(2ⁿ) 常数阶 阶乘阶 2、各时间复杂度介绍 2.1、O(1) O(1) 是常量级时间复杂度的一种表示方法,并非只执行一行代码。 代码执行时间不是随着n的增大而增大,这样的代码的时间复杂度都是 O(1) 。 注意:通常只要算法中不存在循环、递归,即使代码有很多行,时间复杂度仍是 O(1) 。 2.2、O(logn)、O(nlogn)对数阶时间复杂度 int i = 1 ; while ( i <= n ) { i = i * 2 ; } 代码line3是执行次数最多的,只要算出第3行执行的次数,它 代表的就是整个代码的时间复杂度

一看就懂的信息熵

删除回忆录丶 提交于 2020-01-30 00:54:36
信息熵: (看之前可以了解一下信息熵的创始人: 克劳德·艾尔伍德·香农(Claude Elwood Shannon ,1916年4月30日—2001年2月24日) ) 先给出信息熵的公式: 其中:𝑝(𝑥 𝑖 )代表随机事件𝑥 𝑖 的概率。 下面逐步介绍信息熵公式来源! 首先了解一下信息量:信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量 x 的时候,当我们观察到的这个变量的一个具体值的时候,我们接 收到了多 少信息呢? 多少信息用信息量来衡量,我们接受到的信息量跟具体发生的事件有关。 信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如湖南产生 的地震了;越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了(肯定发生嘛, 没什么信息量)。这很好理解! 因此一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。但是这个表示信 息量函数的形式怎么找呢?随着概率增大而减少的函数形式太多了!不要着急,我们还有下 面这条性质。 如果我们有俩个不相关的事件 x 和 y,那么我们观察到的俩个事件同时发生时获得的信息应 该等于观察到的事件各自发生时获得的信息之和,即: h(x,y) = h(x) + h(y) 由于 x,y 是俩个不相关的事件,那么满足 p(x,y) = p(x)*p(y). 根据上面推导,我们很容易看出 h(x)一定与

codeforces 17E

旧城冷巷雨未停 提交于 2020-01-29 06:08:17
题目链接 题意 给定一个长度为n的小写字母串。问你有多少对相交的回文子 串(包含也算相交) 。 输入格式 第一行是字符串长度n(1<=n<=2*10^6),第二行字符串 输出格式 相交的回文子串个数%51123987 Translated by liyifeng 解法 因为首先是回文串,所以考虑manacher,求出每个节点的f[i],然后考虑直接求相交的回文串对数量不是很好求,所以用总对数减去不相交的对数。 考虑计算不相交的对数,我们求出两个数组;l[i],r[i],表示以i为开头的回文串数量,和以i为结尾的回文串数量,然后 ∑ l [ j ] ∗ r [ i ] ∗ [ i < j ] \sum l[j]*r[i]*[i<j] ∑ l [ j ] ∗ r [ i ] ∗ [ i < j ] ,就是不相交的回文串对数。 如何计算l[],r[]?可以考虑用差分,对于一个回文中心i,(i-f[i],i]这一段都可以作为左端点出现,然后[i,i+f[i])这一段都可以作为右端点出现。 # include <bits/stdc++.h> using namespace std ; const int mod = 51123987 ; const int maxn = 4e6 + 5 ; inline int read ( ) { char c = getchar ( ) ; int t

室内定位系列(二)——仿真获取RSS数据

限于喜欢 提交于 2020-01-23 16:33:58
很多情况下大家都采用实际测量的数据进行定位算法的性能分析和验证,但是实际测量的工作量太大、数据不全面、灵活性较小,采用仿真的方法获取RSS数据是另一种可供选择的方式。本文介绍射线跟踪技术的基本原理,以及如何得到用于定位仿真的RSS数据。在此基础上得到位置指纹库与一组测试数据,用于以后定位算法的验证。(本文的原理介绍并不严谨,但求快速理解) 对数距离损耗模型 在自由空间中,没有任何障碍物,信号从发射源向四面八方呈球面形状发射出去,各个方向上没有任何区别,因此信号的功率和距离的平方呈反比: \(P \propto \frac{1}{d^2}\) 。 RSS就是功率,但是衰减的单位一般用dB来表示,那么就很容易理解RSS与距离的关系了,RSS衰减与距离的对数呈正比,假设已知一个参考距离 \(d_0\) 以及这个距离上的RSS为 \(RSS(d_0)\) ,那么, \(RSS(d) = RSS(d_0) - 10n\log(\frac{d}{d_0})\) 。自由空间中 \(n=2\) ,这就是最常见的对数距离损耗模型(针对室内的传播模型还有分隔损耗、楼层间分隔损耗、Ericsson多重断点模型等)。下图中的黑线是一组在走廊中测量的实际数据,红线是对数距离损耗模型的拟合结果,可以看出模型可以反映总体趋势,但和真实室内环境下的情况还是有较大区别,注意黑线的波动不是因为噪声

关于对数

余生长醉 提交于 2020-01-17 07:00:30
#总共n个元素,最坏n次,最好log2(n)次; #log10(100)表示问:将多少个10相乘结果为100 ;log10(100)=2; 幂 - 返回x的y次幂 a b 为10的20次方, 输出结果 100000000000000000000 //取整除 - 返回商的整数部分(向下取整) 9//2 4 -9//2 -5 来源: CSDN 作者: 罗gdfghh 链接: https://blog.csdn.net/weixin_45070743/article/details/103972176

我的数学我的数

≡放荡痞女 提交于 2020-01-16 21:01:54
数学中的相关的基础的概念深究 简介 此博客或许没有一定的逻辑性,但是会记录我的在高等数学的学习过程中,对于一些基础概念的理解,数学的学习,很多人在注重过多的刷题,没有感受到数学内在的美妙之处,还有一个,在做题的时候,有时候对于概念的理解不到位,这就相当于老一辈的数学家给我们制造了一系列的工具,但是我们不会用,或者用的不好,希望自己通过一系列的学习,等加深对于数学的理解以及感受到学习数学的乐趣。这个博客不准备像制作一个文档一样,给每一个小的知识点编号,遇到什么问题,就会写点关于问题的看法以及理解。 关于不等式的取对数问题 为什么取对数? 想一想,取对数的时候,可以解决高次幂的问题,在取完对数后,不等式还没有改变,同等的变换,使得式子变得简单容易求解。何乐而不为? 关于映射和函数之间的关系: 为什么要有映射的概念?为了引出函数,函数是一种特殊的映射关系, 在函数的定义之中,自变量 x 通过相关的对应法则,总能够找到一个 y 的值来对应;x 就是映射中的源像, y 就是 x 的像,f 代表了 x 与 y 之间的对应关系 , f(x)代表了函数值 ,只是为了书写方便,所以使用 f( x )来代表函数,对于对应关系 f 的理解一定需要准确。 函数就是实数集到实数集的映射 函数 1.关于 y 的值与 f( x )的关系与区别,通常哟用 f( x )来代替 y 来表示函数关系, 就是一个符号而已

对数函数的底数是多少

雨燕双飞 提交于 2020-01-13 05:22:08
不强调底数,是因为这时候它是多少没本质的区别。 l o g a x = l o g b x l o g b a log_ax=\frac{log_bx}{log_ba} l o g a ​ x = l o g b ​ a l o g b ​ x ​ 对于x,使用不同的底数a,b取对数,区别只是一个固定的常数系数 l o g b a log_ba l o g b ​ a 罢了。 在讨论时间复杂度、信息熵等不关心常系数的时候,使用任何底数是没有区别的。只有关注常系数的时候,才需要思考对数的底数用什么,否则,2,e,10等哪个计算方便就用哪个。 来源: CSDN 作者: 林晓明 链接: https://blog.csdn.net/weixin_42408467/article/details/103765481

感知机、logistic回归 损失函数对比探讨

天大地大妈咪最大 提交于 2020-01-11 05:15:10
感知机、logistic回归 损失函数对比探讨 感知机   假如数据集是线性可分的,感知机学习的目标是求得一个能够将正负样本完全分开的分隔超平面 \(wx+b=0\) 。其学习策略为,定义(经验)损失函数并将损失函数最小化。通常,定义损失函数的策略是:== 误分类点 到分隔超平面的总距离==。【李航,2.2节】 如果没有误分点,则损失函数值是0. 感知机学习算法若采用不用的初始值或选取不同的误分类点,得到的分隔超平面可不同。 logistic回归(对数几率回归):   逻辑回归和感知机一样,定义一个决策面(分隔面)来区分正负两类样本。但是其学习策略为:   定义: \(z=\theta x=ln \dfrac{p}{1-p}\) ,其中 \(z\in R\) , \(p=P(y=1\mid x ;\theta)\) , \(p\in (0,1)\) ,即样本点为1的概率。此时 \(z = \theta x=0\) 为分类决策面, \(p=g(z)=\dfrac{1}{1+e^{-z}}\) ,其实可发现:   当 \(\theta^TX\gt0\) ,则有 \(p\gt0.5\) ;若 \(\theta^TX\to+\infty\) ,则 \(p\to1\) ,即 y 为 1 类;   当 \(\theta^TX\lt0\) ,则有 \(p\lt0.5\) ;若 \(\theta