num

NEFU 素数

馋奶兔 提交于 2020-02-15 09:46:00
函数版素数判定 # include <bits/stdc++.h> using namespace std ; int num [ 10005 ] ; int a [ 10005 ] ; int t = 0 ; int sh ( ) //埃氏筛法(一般来说用此法筛素数就够了) { memset ( a , 1 , sizeof ( a ) ) ; a [ 0 ] = a [ 1 ] = 0 ; for ( int i = 2 ; i <= 10005 ; i ++ ) { if ( a [ i ] ) { num [ t ] = i ; t ++ ; for ( int j = 2 ; j * i < 10005 ; j ++ ) //筛掉当前数的倍数 a [ j * i ] = 0 ; } } return 0 ; } int su ( int n ) //判断是不是素数的函数 { int mark = 0 ; for ( int i = 0 ; num [ i ] <= sqrt ( n * 1.0 ) ; i ++ ) //判断方法 { if ( n % num [ i ] == 0 ) { mark = 1 ; break ; } } if ( n == 1 ) //此法不能判断1,把1单独拿出来 mark = 1 ; return mark ; } int main (

循环神经网络实现创作歌词

我的梦境 提交于 2020-02-15 09:11:17
介绍 假设 X t ∈ R n × d X_t∈\R^{n×d} X t ​ ∈ R n × d 是时间步 t t t 的小批量输入, H t ∈ R n × h H_t∈\R^{n×h} H t ​ ∈ R n × h 是该时间步的隐藏变量,则: H t = ϕ ( X t W x h + H t − 1 W h h + b h ) H_t=ϕ(X_t W_{xh}+H_{t−1}W_{hh}+b_h) H t ​ = ϕ ( X t ​ W x h ​ + H t − 1 ​ W h h ​ + b h ​ ) 其中, W x h ∈ R d × h W_{xh}∈\R^{d×h} W x h ​ ∈ R d × h , W h h ∈ R h × h W_{hh}∈\R^{h×h} W h h ​ ∈ R h × h , b h ∈ R 1 × h b_h∈\R^{1×h} b h ​ ∈ R 1 × h , ϕ ϕ ϕ 函数是非线性激活函数。由于引入了 H t − 1 W h h H_{t−1}W_{hh} H t − 1 ​ W h h ​ , H t H_t H t ​ 能够捕捉截至当前时间步的序列的历史信息,就像是神经网络当前时间步的状态或记忆一样。由于 H t H_t H t ​ 的计算基于 H t − 1 H_{t−1} H t − 1 ​ ,上式的计算是循环的

学习笔记2-多层感知机(multilayer perceptron,MLP)

假如想象 提交于 2020-02-15 09:04:10
学习笔记2-多层感知机(multilayer perceptron,MLP) 1、理论基础 1.1 多层感知机的基本公式和原理 多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。以单隐藏层为例并沿用本节之前定义的符号,多层感知机按以下方式计算输出: H = ϕ ( X W h + b h ) , O = H W o + b o , \begin{aligned} \boldsymbol{H} &= \phi(\boldsymbol{X} \boldsymbol{W}_h + \boldsymbol{b}_h),\\ \boldsymbol{O} &= \boldsymbol{H} \boldsymbol{W}_o + \boldsymbol{b}_o, \end{aligned} H O ​ = ϕ ( X W h ​ + b h ​ ) , = H W o ​ + b o ​ , ​ 其中 ϕ \phi ϕ 表示激活函数。 1.2 表达公式 具体来说,给定一个小批量样本 X ∈ R n × d \boldsymbol{X} \in \mathbb{R}^{n \times d} X ∈ R n × d ,其批量大小为 n n n ,输入个数为 d d d

动手学深度学习第六课:循环神经网络基础

ぃ、小莉子 提交于 2020-02-15 08:49:24
循环神经网络 以循环神经网络实现语言模型为例。 下面分析构造。假设 X t ∈ R n × d X_t\in\mathbb{R}^{n\times d} X t ​ ∈ R n × d 是时间步 t t t 的小批量输入, H t ∈ R n × h H_t\in\mathbb{R}^{n\times h} H t ​ ∈ R n × h 是该时间步的隐藏变量,则 H t = Φ ( X t W x h + H t − 1 W h h + b h ) . H_t = \Phi(X_tW_{xh}+H_{t-1}W_{hh}+b_h). H t ​ = Φ ( X t ​ W x h ​ + H t − 1 ​ W h h ​ + b h ​ ) . 对于每一个字符和每一个隐藏变量都用一个向量来表示,这里的 d d d 和 h h h 分别表示两个向量的长度。 W x h ∈ d × h , W h h ∈ R h × h , b ∈ R 1 × h W_{xh}\in\mathbb{d\times h}, W_{hh}\in\mathbb{R}^{h\times h},b\in\mathbb{R}^{1\times h} W x h ​ ∈ d × h , W h h ​ ∈ R h × h , b ∈ R 1 × h ,由此知 X t W x h ∈ R n × h , H t

动手学深度学习之线性回归

蹲街弑〆低调 提交于 2020-02-15 08:48:56
1. 线性回归基本要素 1.1 模型 所谓模型,即 两种或两种以上变量间相互依赖的定量关系 。例如:房价受其面积、地段与房龄等因素的制约 1.2 数据集 为了对某现象进行预测,需要已知该现象在一段时间内的确切数据。以期在该数据基础上面寻找模型参数来使模型的预测值与真实值的误差最小。在机器学习术语里,该数据集被称为 训练数据集(training data set) 或 训练集(training set) ,其中个体被称为 样本(sample) ,其真实值称为 标签(label) ,用来预测标签的因素称为 特征(feature) 。特征用于表征样本的特点。 1.3 损失函数 在模型训练中,需要衡量预测值与真实值之间的误差。通常会选取一个非负数作为误差,其数值越小表示误差越小。一个常用的选择是 平方函数 。 1.4 优化函数 当模型和损失函数形式较为简单时, 误差最小化 问题的解可以直接用公式表达出来,这类解称为 解析解(analytical solution) 。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值,这类解称为 数值解(numerical solution) 。在求数值解的优化算法中, 小批量随机梯度下降 (mini-batch stochastic gradient

Deep_Learning_Task1: Linear_Regression/Softmax/MLP

♀尐吖头ヾ 提交于 2020-02-15 08:37:07
一 、Linear_Regression 1_线性回归的基本要素 模型 (model) 数据集 (data set):训练数据集(training data set) and 训练集(training set) 损失函数 (price function):用来衡量损失值和真实值的误差,数值越小代表误差越小 优化函数_随机梯度下降 (optimical function_random gradient descent) 在模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接被公式表达出来,这类解叫做解析解(analytical solution) 大多数深度学习的模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值,这类解叫做数值解(numerical solution) 小批量随机梯度下降(mini-batch stochastic gradient descent)—— 求解数值解的优化算法: step1:选取一组模型参数的初始值 step2:对参数进行多次迭代,使每次迭代都降低损失函数的值 step3:在每次迭代的过程中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量 step4:求小批量中数据样本的平均损失有关模型参数的导数(梯度descent) step5:用此结果与预先设定的一个正数的乘机作为模型参数在本次迭代的减小量

从零开始实现--线性回归模型

老子叫甜甜 提交于 2020-02-15 08:32:23
从零开始实现–线性回归模型 从简化的角度考虑,房价预测只从面积和房龄两个因数考虑。具体的关系如下: price = w1 area + w2 age + b import torch from IPython import display from matplotlib import pyplot as plt import numpy as np import random #生成训练数据集 num_inputs = 2 num_examples = 1000 true_w = [ 2 , - 3.4 ] true_b = 4.2 features = torch . randn ( num_examples , num_inputs, dtype = torch . float32 ) labels = true_w [ 0 ] * features [ : , 0 ] + true_w [ 1 ] * features [ : , 1 ] + true_b labels += torch . tensor ( np . random . normal ( 0 , 0.01 , size = labels . size ( ) ) , dtype = torch . float32 ) #读取数据 def data_iter ( batch_size , features ,

task1

丶灬走出姿态 提交于 2020-02-15 07:51:07
以下代码可直接运行,注意注释 从零实现线性回归 import torch as t from matplotlib import pyplot as plt import numpy as np import random num_input = 2 num_example = 1000 true_w = [2,-3.4] true_b = 4.2 features = t.randn(num_example,num_input,dtype = t.float32) labels = true_w[0]*features[:,0]+true_w[1]*features[:,1]+true_b # labels也是一个tensor labels += t.tensor(np.random.normal(0,0.01,size=labels.size())) # plt.scatter(feature[:,0].numpy(),labels.numpy(),1) # 参数为x,y。1表示点的大小。 # plt.scatter(feature[:,1].numpy(),labels.numpy(),1) # plt.show() def data_iter(batch_size,features,labels): num_examples = len(features) indices

L5语言模型与数据集

旧时模样 提交于 2020-02-15 07:43:35
语言模型 一段自然语言文本可以看作是一个离散时间序列,给定一个长度为 T T T 的词的序列 w 1 , w 2 , … , w T w_1, w_2, \ldots, w_T w 1 ​ , w 2 ​ , … , w T ​ ,语言模型的目标就是评估该序列是否合理,即计算该序列的概率: P ( w 1 , w 2 , … , w T ) . P(w_1, w_2, \ldots, w_T). P ( w 1 ​ , w 2 ​ , … , w T ​ ) . 本节我们介绍基于统计的语言模型,主要是 n n n 元语法( n n n -gram)。在后续内容中,我们将会介绍基于神经网络的语言模型。 语言模型 以下公式,CSDN使用的是KaTeX(latex的渲染器),不支持align,但可以用aligned 将\begin{align } 改为\begin{aligned}* 假设序列 w 1 , w 2 , … , w T w_1, w_2, \ldots, w_T w 1 ​ , w 2 ​ , … , w T ​ 中的每个词是依次生成的,我们有 P ( w 1 , w 2 , … , w T ) = ∏ t = 1 T P ( w t ∣ w 1 , … , w t − 1 ) = P ( w 1 ) P ( w 2 ∣ w 1 ) ⋯ P ( w T ∣ w 1 w 2

年会抽奖 抽奖系统 抽奖软件 C# Winform

允我心安 提交于 2020-02-15 06:33:34
年会抽奖软件: Q.Q 358189777 C#、 数据库Access; 1、系统启动,自动全屏展示。 2、背景随心切换、 3、快捷键方便自如:   F1:弹出设置界面   F2:查询人员名单、中奖名单   F3:基础人员信息导入   F4:查看当前抽奖项目已经抽取的名单   F5:刷新   F12:退出系统   ESC:主界面自动最小化;其他设置界面自动关闭   Delete:数据重置 有需要源码,在我的淘宝店下单 https://item.taobao.com/item.htm?id=542768246339 ; using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Data.OleDb; using System.Drawing; using System.Linq; using System.Runtime.InteropServices; using System.Text; using System.Threading.Tasks; using System.Windows.Forms; using CJ.Ctrl; namespace CJ { public partial class MainFrom :