num

DataWhale组队学习Task01:线性回归

生来就可爱ヽ(ⅴ<●) 提交于 2020-02-15 06:19:05
1 线性回归模型简介 线性回归是能够用一个直线较为精确地描述数据与数据之间的关系。线性回归中最常见的就是房价的问题。下面通过房价的例子理解线性回归的 基本要素 模型 我们假设价格只取决于房屋状况的两个因素:面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: 价格 = W_area 面积 + W_age 房龄 + b 数据集 房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。 损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 优化函数 - 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解

机房测试9.23

廉价感情. 提交于 2020-02-15 06:09:40
题解之前 今天还行啊。 Set 肯定要取模。 开始还在想vector这种操作,后来一个dalao发现一定有解,然后有发现一定有一种答案是连续的一段区间,于是就切掉了。 看了题解才发现我们只是运气好。 前缀和如果有n取值,就选%n=0的那一个,不然至多只剩n-1个取值,然而又有n个前缀和。 所以必然有两个相等,输出这之间的下标即可。 #include<cstdio> #include<cctype> #include<cstring> #define FN "set" const int maxn=1e6+5; inline int read() { int x;char ch;while(!isdigit(ch=getchar())); for(x=ch-'0';isdigit(ch=getchar());x=x*10+ch-'0'); return x; } int a[maxn],mod[maxn]; int main() { freopen(FN".in","r",stdin); freopen(FN".out","w",stdout); int n;scanf("%d",&n); for(int i=1;i<=n;i++) { a[i]=read()%n; } memset(mod,-1,sizeof(mod)); int sum=0; for(int i=1;i<=n;i

[机房练习赛7.26] YYR字符串

拜拜、爱过 提交于 2020-02-15 06:02:18
1 无尽的矩阵 (matrix.c/cpp/pas) 1.1 题目描述 从前有一个的小矩阵,矩阵的每个元素是一个字母(区分大小写),突然有一天它发生了变异,覆盖了整个二维空间,即不停自我复制产生相同的矩阵然后无隙放置。现在二维空间已经被它占领了,但你只被告知了大小为R*C空间的内容(可能包含不完整的原矩阵),为了将它恢复原状,你需要找到满足条件的面积最小的原矩阵。 奇怪的是,同时有 T 个二维空间发生了变异,你需要尽快解决这些变异。 1.2 输入格式 第一行为一个整数T,表示二维空间数目。 接下来T组数据。每组数据第一行包含两个数 R,C,表示你被告知的空间大小;接下来 R 行,每行包含 C 个字母,表示你被告知的空间内容。 1.3 输出格式 对于每一组数据输出一行,每行只包含一个数,表示最小的原矩阵面积。 1.4 样例输入 2 2 5 ABABA ABABA 2 8 ABCDEFAB AAAABAAA 1.5 样例输出 2 12 1.6 数据范围与约定 对于前20%的数据R<=20,C<=20; 对于前40%的数据R<=400,C<=100; 对于100%的数据R<=5000 ,C<=100,T<=50。 将每一行hash 为一个数,对得到的新数组直接跑KMP 求最小循环节长度,列 同理。将两次求得的最小循环节长度相乘即为答案。这就是std 做法。 满分 1 #include

【Dart】入门04-计算属性

柔情痞子 提交于 2020-02-15 05:45:58
计算属性我认为get是方便调用并且保证内部变量的私密性,set是为了确保程序的健壮性。我们以一个小计算器为例。 void main() { var _calculator = Calculator(1, 1); try { _calculator.operation = '++'; } catch (e) { print(e.toString()); } _calculator.operation = '+'; print(_calculator.result); } class Calculator { num num1, num2; String _operation; Calculator( this.num1, this.num2, ); num get result { num _result; switch (this._operation) { case "+": _result = num1 + num2; break; case "-": _result = num1 - num2; break; case "*": _result = num1 * num2; break; case "/": _result = num1 / num2; break; } return _result; } set operation(String value) { if

DataWhale组队打卡学习营task02-3

北城余情 提交于 2020-02-15 05:22:47
循环神经网络 从零开始实现循环神经网络 我们先尝试从零开始实现一个基于字符级循环神经网络的语言模型,这里我们使用周杰伦的歌词作为语料,首先我们读入数据: import torch import torch . nn as nn import time import math import sys sys . path . append ( "/home/kesci/input" ) import d2l_jay9460 as d2l ( corpus_indices , char_to_idx , idx_to_char , vocab_size ) = d2l . load_data_jay_lyrics ( ) device = torch . device ( 'cuda' if torch . cuda . is_available ( ) else 'cpu' ) one-hot向量 我们需要将字符表示成向量,这里采用one-hot向量。假设词典大小是N,每次字符对应一个从0到N-1的唯一的索引,则该字符的向量是一个长度为N的向量,若字符的索引是i,则该向量的第i个位置为1,其他位置为0。下面分别展示了索引为0和2的one-hot向量,向量长度等于词典大小。 def one_hot ( x , n_class , dtype = torch . float32 ) :

动手学pytorch第一天

折月煮酒 提交于 2020-02-15 05:02:30
一 线性回归 1 以前存在的知识误区 1_1假如你正在实现一个全连接层,全连接层的输入形状是7×8,输出形状是7×1,其中7是批量大小,则权重参数w和偏置参数b的形状分别是_8x1___和_ 1x1___ 答:根据广播机制 当b.shape = (1,1)时 所有Xw加上的才是同一个bias 1_2 y_hat的形状是[n, 1],而y的形状是[n],两者相减得到的结果的形状是[n, n],相当于用y_hat的每一个元素分别减去y的所有元素,所以无法得到正确的损失值。 2 具体流程 导包 # import packages and modules % matplotlib inline import torch from IPython import display from matplotlib import pyplot as plt import numpy as np import random print ( torch . __version__ ) 生成数据集 In [ 6 ] : # set input feature number num_inputs = 2 # set example number num_examples = 1000 # set true weight and bias in order to generate corresponded

前后自增变态题

家住魔仙堡 提交于 2020-02-15 02:49:08
++num是前自增,先自增1 后返回值, num++是后自增,先返回值 后自增1. 题目一:求num1,num2的此时的值: num2 : 6+7+7+8=28; num1 : 9 题目一:求num1,num2的此时的值: num2 : 1+3+3+5=12; num1 : 5 来源: CSDN 作者: Tangoneone 链接: https://blog.csdn.net/Tangoneone/article/details/104319602

L8梯度消失、梯度爆炸

牧云@^-^@ 提交于 2020-02-15 02:22:16
梯度消失、梯度爆炸以及Kaggle房价预测 代码地址: 下载 https://download.csdn.net/download/xiuyu1860/12156343 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 梯度消失和梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 当神经网络的层数较多时,模型的数值稳定性容易变差。 假设一个层数为 L L L 的多层感知机的第 l l l 层 H ( l ) \boldsymbol{H}^{(l)} H ( l ) 的权重参数为 W ( l ) \boldsymbol{W}^{(l)} W ( l ) ,输出层 H ( L ) \boldsymbol{H}^{(L)} H ( L ) 的权重参数为 W ( L ) \boldsymbol{W}^{(L)} W ( L ) 。为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射(identity mapping) ϕ ( x ) = x \phi(x) = x ϕ ( x ) = x 。给定输入 X \boldsymbol{X} X ,多层感知机的第 l l l 层的输出 H ( l ) = X W ( 1 ) W ( 2 ) … W ( l ) \boldsymbol{H}^{(l)} =

Django—分页器组件

∥☆過路亽.° 提交于 2020-02-15 01:32:16
一 Django的分页器(paginator)简介 补充ORM批量插入ll = [] for i in range(1, 101): ll.append(models.Book(name='图书%s' % i, price=20 + i)) models.Book.objects.bulk_create(ll) from django.core.paginator import Paginator Paginator对象: paginator = Paginator(user_list, 10)——两个参数(对象列表,每页显示的条数) # paginator.per_page: 每页显示条目数量 # paginator.count: 数据总个数 # paginator.num_pages:总页数 # paginator.page_range:总页数的索引范围,页码数的列表,如: (1,10),(1,200) # paginator.page(n): 取到第n页,返回一个page对象 # current_page=paginator.page(5) # current_page.has_next 是否有下一页 # current_page.next_page_number 下一页页码 # current_page.has_previous 是否有上一页 # current_page

循环神经网络

允我心安 提交于 2020-02-15 00:59:36
文本预处理 读入文本 分词 建立字典,将每个词映射到一个唯一的索引(index) 将文本从词的序列转换为索引的序列,方便输入模型 import spacy nlp = spacy . load ( 'en_core_web_sm' ) doc = nlp ( text ) print ( [ token . text for token in doc ] ) from nltk . tokenize import word_tokenize from nltk import data data . path . append ( '/home/kesci/input/nltk_data3784/nltk_data' ) print ( word_tokenize ( text ) ) 语言模型 n元语法 P ( w 1 , w 2 , … , w T ) = ∏ t = 1 T P ( w t ∣ w t − ( n − 1 ) , … , w t − 1 ) P(w_1, w_2, \ldots, w_T) = \prod_{t=1}^T P(w_t \mid w_{t-(n-1)}, \ldots, w_{t-1}) P ( w 1 ​ , w 2 ​ , … , w T ​ ) = t = 1 ∏ T ​ P ( w t ​ ∣ w t − ( n − 1 ) ​ , … ,