wt

计算机控制系统信号恢复之零阶保持器

大城市里の小女人 提交于 2020-03-09 18:20:31
零阶保持器 在计算机控制系统中,由于CPU只能处理数字信号,而被控对象等过程往往是连续过程,因此计算机控制系统是一个混合系统,包含数字信号、模拟信号、离散模拟信号。而在数字信号通过DA转换为模拟信号的时候,样本点之间需要做连续处理,也就是保持器,保持器有很多种,根据其取Taylor展开的项数确定其为哪阶保持器。如果只取第一项就是零阶保持器。 零阶保持器传递函数推导 对零阶保持器的推导往往采用单位冲激响应,在0时刻给予输入 δ ( t ) \delta(t) δ ( t ) ,则输出为: 我们将这个输出分解为两个信号: 即 g ( t ) = 1 ( t ) − 1 ( t − T ) g(t)=1(t)-1(t-T) g ( t ) = 1 ( t ) − 1 ( t − T ) 之后对其进行拉氏变换: L ( g ( t ) ) = 1 s − e − s T s = 1 − e − s T s L(g(t))=\frac{1}{s}-\frac{e^{-sT}}{s}=\frac{1-e^{-sT}}{s} L ( g ( t ) ) = s 1 ​ − s e − s T ​ = s 1 − e − s T ​ 由于: L ( δ ( t ) = 1 L(\delta(t)=1 L ( δ ( t ) = 1 因此零阶保持器的传递函数就是 L ( g ( t ) ) L(g

cs224n lesson1 note

可紊 提交于 2020-03-02 00:59:36
  本节课结合了旧版的前半部分(NLP的基本概念的内容)以及新版的绝大多数内容。 0. 本节课程计划 NLP的基本概念和人类语言的本质。 什么是深度学习。 课程安排。 为什么NLP难? NLP的应用。 1. NLP的基本概念 1.1 什么是NLP?   NLP是计算机科学、人工智能、语言学的交叉学科。   它的目标是让计算机理解人类语言,从而完成有意义的任务。例如: 下订单或者买东西 知识问答,如Siri、谷歌助手、微软小冰等   完全理解和表达语言的内涵是极其困难的,完美的语言理解等效于实现完备的人工智能系统。 1.2 NLP的层次   语言的输入有两种方式,一种是语音识别,一种是文本(OCR和分词)。接下来是形态学(Morphology),简单可理解为对英文单词进行形态变换,如act->action。   接下来是语法分析和语义分析。最后是篇章处理,它更加注重于通过上下文进行理解。   本门课主要注重于画圈的三大部分,尤其是后两部分(语法分析和语义分析)。 1.3 自然语言处理应用   推荐和广告依然是AI在互联网行业落地最早也最为成熟的两个方向。所以将NLP技术利用于这两个方向也是顺其自然的事情。具体来说: 搜索(拼写自动纠正) 在线广告匹配   现如今NLP最火热的两个方向分别是知识图谱和智能客服(聊天机器人)。 1.4 人类语言的特殊之处   自然语言与信号处理

BOM展开实例

旧时模样 提交于 2020-02-26 07:57:00
*/ /*--> */ report Z_PP_FIND_MULTBOM_MAT no standard page heading message - id YMM line - count 81 line - size 650 . "207 ************************************************************************ *INCLUDE ************************************************************************ include < LINE >. ************************************************************************ *DDIC ************************************************************************ tables :MARA,MARC,BKPF,MARD,MAST. ************************************************************************ *ALV层级关系定义 ***********************************

多阶BOM展开

隐身守侯 提交于 2020-02-26 07:56:24
Function: CS_BOM_EXPL_MAT_V2 功能:BOM展开 参数: Import: CAPID:application id DATUV:有效开始日 EMENG:数量 MTNRV:物料 MEHRS:多阶层bom展开 WERKS:工厂 STLAN:bom用途 Tables: STB:展开明细 说明:一般定义上面几个参数就可以了,鉴于该函数参数太多,就不一一说明了. STB內表的componet quality (count), 有mnglg和mngko, 一般取後者,更準確些. 還要注意 CALL FUNCTION 'UNIT_CONVERSION_SIMPLE' 參數四舍五入不選上. 原代码: *&---------------------------------------------------------------------* *& Report Z_PP_FIND_MULTBOM_MAT *& *&---------------------------------------------------------------------* *& *& *&---------------------------------------------------------------------* *------------------------------

自然语言处理——语言模型

孤街浪徒 提交于 2020-02-19 03:33:23
1.语言模型 语言模型是自然语言处理的重要技术。自然语言处理中最常见的数据是文本数据。我们可以把一段自然语言文本看做一段离散的时间序列。假设一段长度为T的文本中的词依次为 w 1 , w 2 , . . . , w T w_1,w_2,...,w_T w 1 ​ , w 2 ​ , . . . , w T ​ ,那么在离散的时间序列中, w t ( 1 ≤ t ≤ T ) w_t(1\leq t\leq T) w t ​ ( 1 ≤ t ≤ T ) 可看做在时间步t的输出或者标签。给定一个长度为T的词的序列 w 1 , w 2 , . . . , w T w_1,w_2,...,w_T w 1 ​ , w 2 ​ , . . . , w T ​ ,语言模型将计算该序列的概率: P ( w 1 , w 2 , . . . , w T ) P(w_1,w_2,...,w_T) P ( w 1 ​ , w 2 ​ , . . . , w T ​ ) 语言模型可用于提升语言识别和机器翻译的性能。例如,在语言识别中,给定一段“厨房食油用完了”的语言,有可能会输出“厨房里食油用完了”和“厨房里石油用完了”这两个读音完全一样的文本序列。如果语言模型判断出前者的概率大于后者的概率,我们就可以根据相同读音的语言输出“厨房里食油用完了”的文本序列。 在机器翻译中,如果对英文“you go first

L5语言模型与数据集

旧时模样 提交于 2020-02-15 07:43:35
语言模型 一段自然语言文本可以看作是一个离散时间序列,给定一个长度为 T T T 的词的序列 w 1 , w 2 , … , w T w_1, w_2, \ldots, w_T w 1 ​ , w 2 ​ , … , w T ​ ,语言模型的目标就是评估该序列是否合理,即计算该序列的概率: P ( w 1 , w 2 , … , w T ) . P(w_1, w_2, \ldots, w_T). P ( w 1 ​ , w 2 ​ , … , w T ​ ) . 本节我们介绍基于统计的语言模型,主要是 n n n 元语法( n n n -gram)。在后续内容中,我们将会介绍基于神经网络的语言模型。 语言模型 以下公式,CSDN使用的是KaTeX(latex的渲染器),不支持align,但可以用aligned 将\begin{align } 改为\begin{aligned}* 假设序列 w 1 , w 2 , … , w T w_1, w_2, \ldots, w_T w 1 ​ , w 2 ​ , … , w T ​ 中的每个词是依次生成的,我们有 P ( w 1 , w 2 , … , w T ) = ∏ t = 1 T P ( w t ∣ w 1 , … , w t − 1 ) = P ( w 1 ) P ( w 2 ∣ w 1 ) ⋯ P ( w T ∣ w 1 w 2

伯禹学习平台第一次打卡 task01-task02

别来无恙 提交于 2020-02-15 04:45:22
此次博客的内容为对task01和task02的学习内容进行一次复习总结,方便以后复习学习。 线性回归 给定数据集 D = { ( x 1 ; y 1 ) , ( x 2 ; y 2 ) , ⋯   } D=\{(x_1; y_1), (x_2; y_2),\cdots \} D = { ( x 1 ​ ; y 1 ​ ) , ( x 2 ​ ; y 2 ​ ) , ⋯ } 试图学习此数据集,得到一个线性模型 y ^ = b + w x \hat{y} = b + wx y ^ ​ = b + w x 使该模型尽可能准确的反映 x i x_i x i ​ 和 y i y_i y i ​ 的关系 线性回归问题归结为求参数 b , w b, w b , w ,使得损失函数J J = ∑ i = 1 n [ y i − y ^ i ] 2 = ∑ i = 1 n [ y i − ( b + w x i ) ] 2 J=\sum_{i=1} ^n{\left[y_i-\hat{y}_i\right]^2}=\sum_{i=1}^n{\left[y_i-(b+wx_i)\right]^2} J = i = 1 ∑ n ​ [ y i ​ − y ^ ​ i ​ ] 2 = i = 1 ∑ n ​ [ y i ​ − ( b + w x i ​ ) ] 2 取最小值

论文记录__Stochastic gradient descent with differentially private updates

对着背影说爱祢 提交于 2020-02-07 10:37:46
记录几条疑问 The sample size required for a target utility level increases with the privacy constraint. Optimization methods for large data sets must also be scalable. SGD algorithms satisfy asymptotic guarantees Introduction 主要工作简介: \quad In this paper we derive differentially private versions of single-point SGD and mini-batch SGD, and evaluate them on real and synthetic data sets. 更多运用SGD的原因: \quad Stochastic gradient descent (SGD) algorithms are simple and satisfy the same asymptotic guarantees as more computationally intensive learning methods. 由于asymptotic guarantees带来的影响: \quad to obtain

分支限界----最优装载

喜夏-厌秋 提交于 2020-01-29 03:31:51
# include <iostream> # include <bits/stdc++.h> using namespace std ; int MaxLoading ( int w [ ] , int c , int n ) { queue < int > Q ; int bestw = 0 ; int i = 1 ; int ew = 0 ; int r = 0 ; for ( int j = 2 ; j <= n ; j ++ ) r = r + w [ j ] ; Q . push ( - 1 ) ; while ( true ) { int wt = ew + w [ i ] ; if ( wt <= c ) { if ( wt > bestw ) { bestw = wt ; } if ( i < n ) Q . push ( wt ) ; } if ( ew + r > bestw && i < n ) Q . push ( ew ) ; ew = Q . front ( ) ; Q . pop ( ) ; if ( ew == - 1 ) { if ( Q . empty ( ) ) return bestw ; Q . push ( - 1 ) ; ew = Q . front ( ) ; Q . pop ( ) ; i ++ ; r = r - w [ i ]

LOJ泛做

萝らか妹 提交于 2020-01-22 23:45:49
SDOI2019 快速查询 考虑维护双标记,题目的难点在于如何维护单点赋值操作。 推式子发现,直接修改原本的值变为$\frac{x-add}{mul}$,用hash维护下标即可。 1 #include <bits/stdc++.h> 2 using namespace std; 3 #define MOD 10000019 4 namespace hash{ 5 #define sz 299999 6 int h[300010], num[300010], clo[300010]; 7 int All, CLO; 8 inline int get_Num(int x) { 9 int wt = x % sz; 10 while(num[wt] != x && num[wt]) { 11 ++ wt; 12 if(wt == sz) wt = 0; 13 } 14 num[wt] = x; 15 return wt; 16 } 17 inline int upd(int x, int y, int CL) { 18 int wt = get_Num(x); 19 if(clo[wt] < CLO) h[wt] = All; 20 int ret = y - h[wt]; 21 h[wt] = y; clo[wt] = CL; 22 return ret; 23 } 24 inline