omega

公告

我的梦境 提交于 2020-08-04 16:41:12
欢迎dalao在评论区留言 \(Q \omega Q\) 公告部分: 博客文章的更新一般被放在周末 当然还是可能会咕 这篇博客里的文章里的代码,可能会存在缩进格式出问题的情况,这都是 windows 的锅,敬请谅解! 谢谢 dalao 合作!!! 随想部分: 2020.5.4 今天学会了 NTT ,并通过一道考试题学会了一些基环树的处理技巧。 感觉还挺有成就感的。 \(Q \omega Q\) 2020.4.10 网课两个月了啊,开学也只有3天的时间了 咕了这么久不愧是我 本想着在家时间这么长,做不少题的话还是很赚的,但是一直没想去更博。。。 这就算是简单的更博了吧,以后做的题目的博文,果然还是在学校里做比较好 \(Q \omega Q\) 2020.2.23 随想录此后只会显示最近七次的随想,并且新更新的内容显示在上方。 2020.2.21 1:27 我现在很烦躁 今天我做了一道特别鬼的题,这题真的是鬼,可能这周末会发题解详细说明。 2020.2.15 趁着周末,魔改了博客的主题(大换血) 2020.2.12 网课引起极度不适 2020.2.9 “开学”前夜.jpg 来源: oschina 链接: https://my.oschina.net/u/4299119/blog/4295342

用SV写一个蒙哥马利模乘的参考模型

你。 提交于 2020-07-28 13:07:09
前言 往期推送过一个蒙哥马利算法的介绍,如果要实现蒙哥马利模乘的硬件模块,那么一个参考模型是必不可少的,这一期将利用SV实现一个简单的参考模型,这个参考模型可以直接用于功能仿真 根据以往推送中的运算流程进行建模 类的定义 class BN; rand bit [127:0] num [32:0]; string name; constraint c {num[32]==0;num[0][0]==1;}; function new(string name="A"); this.name = name; endfunction endclass : BN 定义一个大数的类,计算的位宽是4096,而使用的基是128bit也就是基为 \(2^{128}\) ,数组大小定义为33,用于处理数运算时的溢出。 大数显示 // BN display function void BN_display(bit flag=0); string s; s={s,name,":"}; if(flag==1) s={s,$sformatf("%h",num[32])}; for (int i=1; i<32+1; i++) begin s={s,$sformatf("%h",num[32-i])}; end s={s,"\n"}; $display(s); endfunction : BN_display

稀疏贝叶斯学习详解--证据和后验概率的计算

帅比萌擦擦* 提交于 2020-07-28 11:03:08
简介 稀疏贝叶斯学习(Sparse Bayesian Learning,SBL)是稀疏信号重构的方法之一,其性能相当于重加权的$\ell_1$范数恢复方法,并且不需要设置正则化参数,在目标定位,生物医学信号提取等方面被广泛应用。但是其涉及复杂的数学知识包括高斯函数、最大似然估计、向量求导、贝叶斯估计、EM算法等让很多人望而却步。笔者在学习此部分内容也曾花费大量时间,为解决小伙伴们的烦恼,本系列文章将详细解读稀疏贝叶斯学习的基本原理及其对应的数学推导,大致分为几块,包括证据和后验概率的计算、EM算法部分推导等。下面先对证据和后验概率的计算推导进行叙述。以下需要用到的数学基础包括高斯函数的基本性质、向量的求导。 模型 先考虑对一个向量的观测,假设有观测矩阵 $\bm{\Phi}\in C^{N\times M}$,对未知变量$\bm{\omega}\in C^{M\times1}$进行观测,记为 \[\bm{t}=\bm{\Phi}\bm{\omega}+\bm{\epsilon}\qquad(1)\] 式中$t\in C^{N\times1}$,观测矩阵也称之为过完备基,这里假定$\bm{\omega}$是稀疏变量,即$\bm{\omega}$的大部分元素都为0,$\epsilon$ 为观测噪声。SBL要解决的问题是根据已知的$\bm{t}$和${\bm{\Phi}}$估计出$\bm

用SV写一个蒙哥马利模乘的参考模型

放肆的年华 提交于 2020-07-28 06:35:35
前言 往期推送过一个蒙哥马利算法的介绍,如果要实现蒙哥马利模乘的硬件模块,那么一个参考模型是必不可少的,这一期将利用SV实现一个简单的参考模型,这个参考模型可以直接用于功能仿真 根据以往推送中的运算流程进行建模 类的定义 class BN; rand bit [127:0] num [32:0]; string name; constraint c {num[32]==0;num[0][0]==1;}; function new(string name="A"); this.name = name; endfunction endclass : BN 定义一个大数的类,计算的位宽是4096,而使用的基是128bit也就是基为 \(2^{128}\) ,数组大小定义为33,用于处理数运算时的溢出。 大数显示 // BN display function void BN_display(bit flag=0); string s; s={s,name,":"}; if(flag==1) s={s,$sformatf("%h",num[32])}; for (int i=1; i<32+1; i++) begin s={s,$sformatf("%h",num[32-i])}; end s={s,"\n"}; $display(s); endfunction : BN_display

O、Θ、Ω、o、ω,别再傻傻分不清了!

徘徊边缘 提交于 2020-07-28 04:05:16
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 前面几节,我们一起学习了算法的复杂度如何分析,并从最坏、平均、最好以及不能使用最坏情况全方位无死角的剖析了算法的复杂度,在我们表示复杂度的时候,通常使用大O来表示。 但是,在其他书籍中,你可能还见过Θ、Ω、o、ω等符号。 那么,这些符号又是什么意思呢? 本节,我们就来解决这个问题。 读音 我们先来纠正一波读音: O,/əʊ/,大Oh o,/əʊ/,小oh Θ,/ˈθiːtə/,theta Ω,/oʊˈmeɡə/,大Omega ω,/oʊˈmeɡə/,小omega 是不是跟老师教得不太一样^^ 数学解释 Θ Θ定义了一种精确的渐近行为(exact asymptotic behavior),怎么说呢? 用函数来表示: 对于f(n),存在正数n0、c1、c2,使得当 n>=n0 时,始终存在 0 <= c1*g(n) <= f(n) <= c2*g(n),则我们可以用 f(n)=Θ(g(n))表示。 用图来表示: Θ同时定义了上界和下界,f(n)位于上界和下界之间,且包含等号。 比如说,f(n) = 2n^2+3n+1 = Θ(n^2),此时,g(n)就是用f(n)去掉低阶项和常数项得来的,因为肯定存在某个正数n0、c1、c2,使得 0 <= c1 n^2 <= 2n^2+3n+1

LaTeX公式手册(全网最全)

三世轮回 提交于 2020-07-25 08:28:15
本手册全新编排版正在施工,感兴趣的戳 这里 ! 参考维基百科的 数学公式教程 参考 Cmd Markdown 公式指导手册 本文为 MathJax 在 Markdown 环境下的语法指引。 如何插入公式 \(\LaTeX\) 的数学公式有两种:行中公式和独立公式(行间公式)。行中公式放在文中与其它文字混编,独立公式单独成行。 行中公式可以用如下方法表示: $ 数学公式 $ 独立公式可以用如下方法表示: $$ 数学公式 $$ 函数、符号及特殊字符 声调 / 变音符号 \dot{a}, \ddot{a}, \acute{a}, \grave{a} \({\displaystyle {\dot {a}},{\ddot {a}},{\acute {a}},{\grave {a}}}\) \check{a}, \breve{a}, \tilde{a}, \bar{a} \({\displaystyle {\check {a}},{\breve {a}},{\tilde {a}},{\bar {a}}}\) \hat{a}, \widehat{a}, \vec{a} \({\displaystyle {\hat {a}},{\widehat {a}},{\vec {a}}}\) 标准函数 指数 \exp_a b = a^b, \exp b = e^b, 10^m \({

[笔记-统计学习方法]感知机模型(perceptron) 原理与实现

一曲冷凌霜 提交于 2020-05-08 09:12:09
前几天认把感知机这一章读完了,顺带做了点笔记 现在把笔记做第三次的整理 (不得不说博客园的LaTex公式和markdown排版真的不太舒服,该考虑在服务器上建一个博客了) 零、总结 适用于具有 线性可分的数据集的二分类问题 ,可以说是很局限了 感知机本质上是一个分离超平面 在向量维数(特征数)过高时,选择对偶形式算法 在向量个数(样本数)过多时,应选择原始算法 批量梯度下降和随机梯度下降的区别和优势 参考链接: 随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比 批量梯度下降(BGD, Batch Gradient Descent) $ \theta \leftarrow \theta + \eta \sum \frac{\partial L}{\partial \theta}$ 即多次做全局样本的参数更新 缺点:计算耗时 优点:可以趋向全局最优,受数据噪音影响少 随机梯度下降(SGD, Srochastic Gradient Descent) $ \theta \leftarrow \theta + \eta \frac{\partial L}{\partial \theta}$ 即多次做单个样本的参数更新 缺点:训练耗时较短 优点:不一定趋向全局最优(往往是最优/较优

20应用统计考研复试要点(part2)--统计学

百般思念 提交于 2020-05-06 20:18:24
学习笔记,仅供参考,有错必纠 具体原理: 统计量及其抽样分布 ; 数据的概括性度量 文章目录 贾俊平统计学 数据的分布特征 概率与概率分布 统计量及其抽样分布 贾俊平统计学 数据的分布特征 概率与概率分布 样本、事件和样本空间 总体 :是包含所研究的全部个体(数据)的集合。 样本 :是从总体中抽取的一部分元素的集合,构成样本的元素的数目称为样本量。 随机事件 :在同一组条件下,每次试验可能出现也可能不出现的事件,也叫偶然事件。 必然事件 :在同一组条件下,每次试验一定出现的事件。 不可能事件 :在同一组条件下,每次试验一定不出现的事件。 样本空间 :所有和某个实验相关的基本事件的集合。 事件的概率 事件A的概率是描述事件A在试验中出现的可能性大小的一种度量,记事件A出现可能性大小的数值为 P ( A ) P(A) P ( A ) , P ( A ) P(A) P ( A ) 称为事件A的概率。 条件概率 当某一事件B已经发生时,事件A发生的概率,称这种概率为 事件B发生条件下事件A发生的条件概率 ,记为 P ( A ∣ B ) P(A|B) P ( A ∣ B ) 条件概率 两个事件中不论哪一个事件发生并不影响另一个事件发生的概率,则称这两个事件相互独立。与此相对应的是相依事件,即一个事件发生与否会影响另一个事件的发生。根据事件独立性的含义

02-05 scikit-learn库之线性回归

心已入冬 提交于 2020-05-05 18:38:40
[TOC] 更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:<a target="_blank" href="https://www.cnblogs.com/nickchen121/p/11686958.html"> https://www.cnblogs.com/nickchen121/p/11686958.html </a> scikit-learn库之线性回归 由于scikit-learn库中 sclearn.linear_model 提供了多种支持线性回归分析的类,本文主要总结一些常用的线性回归的类,并且由于是从官方文档翻译而来,翻译会略有偏颇,如果有兴趣想了解其他类的使用方法的同学也可以去scikit-learn官方文档查看 https://scikit-learn.org/stable/modules/classes.html#module-sklearn.linear_model 在讲线性回归理论的时候讲到了,线性回归的目的是找到一个线性回归系数向量$\omega$,使得输入特征$X$和输出向量$Y$之间有一个 $$ Y = X\omega $$ 的映射关系,接下来的线性回归模型和线性回归模型的思想类似。假设一个数据集有$m$实例,每个实例有$n$个特征,则其中$Y$的维度是$m 1$,$X$的维度是$m n$,$

浅谈FFT-快速傅里叶变换

天大地大妈咪最大 提交于 2020-05-05 11:58:49
学前须知: 作为一名 巨弱 的数学竞赛生&高数爱好者,数论知识无疑是我在oi最擅长的领域( 没有之一 )了。那么我来结合网上的现有资料,以及我的个人见解,书写一篇关于快速傅里叶变换的博客吧。 关于FFT我大约半年前掌握了,现有些许生疏,而且最近学了数学中有关拓扑学的DFT,有了些新的见解,所以写了这篇。 此博客的作用是为了让不会的同学快速入门学习,以及在我本人写的过程中提升自我,无任何商业目的。PS:本人原创意识薄弱可能会从网上找一些现有资料。 此博客重在为初学者提供技巧以及结论的运用,至于理由我会粗略介绍,我认为还是要先知其然,学到手后再考虑证明什么的吧 如果你实在看了还不会的话背板子就行了,不用太过纠结。还有关于关于第二板块的数学知识大家没学过的话跳过就行就是科普一下。 另外此篇是给有数学基础高中生已经自学了高中数学的同学看的。如果对虚数三角函数等知识不熟悉可以自行学习,此论文中不再赘述了。 1.FFT的作用以及功能 相信大家都曾听闻过FFT,它是一种可以优化高精度乘法的 高逼格 算法。 首先我们要知道FFT是由DFT以更高效,快速计算的方式得到的。在介绍FFT之前我会再讲一下关于DTF(离散傅里叶变换)的数学意义,这是其他的博客都不介绍的内容。为什么介绍呢,这是因为可以让你了解数学中离散傅里叶变换是如何把信号从时间域转到频率域的,正如我们的现在的计算机的DFT也是用的这种转换