mean

人工智能实践:全连接网络基础

匿名 (未验证) 提交于 2019-12-03 00:43:02
array([0.,0.,0.,0.,0.,0.,1.,0.,0.,0]) mnist.train.images[0] x=tf.constant([[1,2],[1,2]]) y=tf.constant([[1,1],[1,2]]) z=tf.add(x,y) print z [[2,3],[2,4]] A = tf.convert_to_tensor(np.array([[1,1,2,4], [3,4,8,5 ]])) print A.dtype b = tf.cast(A, tf.float32) print b.dtype A = [[1,3,4,5,6]] B =[[1,3,4,3,2 ]] with tf.Session( ) as sess: print (sess.run(tf.equal(A, B))) [[True True True False False]] x = [[1., 1.][2., 2 .]] print (tf.reduce_mean(x)) print (tf.reduce_mean(x, 0)) print (tf.reduce_mean(x, 1)) correct_prediction= tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1 )) accuracy =tf.reduce_mean(tf

Scikit-learn数据变换

匿名 (未验证) 提交于 2019-12-03 00:41:02
转载自: https://blog.csdn.net/Dream_angel_Z/article/details/49406573 本文主要是对照 scikit-learn的preprocessing 章节结合代码简单的回顾下预处理技术的几种方法,主要包括标准化、数据最大最小缩放处理、正则化、特征二值化和数据缺失值处理。内容比较简单,仅供参考! 首先来回顾一下下面要用到的基本知识。 均值公式: 方差公式: 0-范数,向量中非零元素的个数。 1-范数: 2-范数: p-范数的计算公式: 数据标准化:当单个特征的样本取值相差甚大或明显不遵从高斯正态分布时,标准化表现的效果较差。实际操作中,经常忽略特征数据的分布形状,移除每个特征均值,划分离散特征的标准差,从而等级化,进而实现数据中心化。 公式为:(X-X_mean)/X_std 计算时对每个属性/每列分别进行. 将数据按其属性(按列进行)减去其均值,然后除以其方差。最后得到的结果是,对每个属性/每列来说所有数据都聚集在0附近,方差值为1。 首先说明下sklearn中preprocessing库里面的scale函数使用方法: sklearn.preprocessing.scale(X, axis= 0 , with_mean= True ,with_std= True , copy = True ) 1 根据参数的不同

谷歌机器学习速成课程学习笔记

匿名 (未验证) 提交于 2019-12-03 00:37:01
framing tensorflow pandas framing 标签:我们要预测的真实事物:y 基本线性回归中的y变量 特征:描述数据的输入变量: x i x i 基本线性回归中的 { x 1 、 x 2 、 x 3 } { x 1 、 x 2 、 x 3 } 变量 样本:数据的特定实例: x x 有标签样本:<特征,标签>;(x, y) 用于训练模型 无标签样本 <特征,?>:(x,?) 用于对新数据做出预测 模型:可以将样本映射到预测标签: y ′ y ′ 预测由模型内部参数定义,这些内部参数是通过学习得到的 合适的特征应该是具体且可以量化的。 漂不漂亮等无法量化,太主观,能否转化为其他具体特征。比如鞋子的颜色、样式等具体的方面。 b b (bias)在有的机器学习教材中也写做 w 0 w 0 损失函数: 均方误差MSE: M S E = 1 N ∑ ( x , y ∈ D ) ( y p r e d i c t i o n ( x ) ) 2 M S E = 1 N ∑ ( x , y ∈ D ) ( y p r e d i c t i o n ( x ) ) 2 除了MSE作为损失函数,也 有其他损失函数 ,MSE不是唯一的, 也不是适用于所有情形的最佳损失函数 神经网络非凸,落到哪个最小值很大程度上取决于初始值 小批量随机梯度下降法 tensorflow 结构: 分为

矩阵零均值化

匿名 (未验证) 提交于 2019-12-03 00:36:02
dataMat = [[ 2 , 4 , 5 ], [ 2 , 4 , 6 ], [ 1 , 4 , 8 ], [ 1 , 2 , 4 ,]] means = np . mean ( dataMat , axis = 0 ) #求每一列的均值 print ( means ) mean_dataMat = dataMat - means print ( mean_dataMat ) print ( '--------------------' ) m , n = np . shape ( dataMat ) means_tile = np . tile ( means ,( m , 1 )) print ( means_tile ) mean_dataMat = dataMat - means_tile print ( mean_dataMat ) #运行结果 [ 1.5 3.5 5.75 ] [[ 0.5 0.5 - 0.75 ] [ 0.5 0.5 0.25 ] [- 0.5 0.5 2.25 ] [- 0.5 - 1.5 - 1.75 ]] -------------------- [[ 1.5 3.5 5.75 ] [ 1.5 3.5 5.75 ] [ 1.5 3.5 5.75 ] [ 1.5 3.5 5.75 ]] [[ 0.5 0.5 - 0.75 ] [ 0.5 0.5

WGAN-GP与GAN及WGAN的比较

匿名 (未验证) 提交于 2019-12-03 00:34:01
from datetime import datetime import os import matplotlib.pyplot as plt import numpy as np import tensorflow as tf from six.moves import xrange data = np.load('final37.npy') data = data[:,:,0:60] #显示原始数据图像 def Show_images(data,show_nums,save=False): index = 0 for n in range(show_nums): show_images = data[index:index+100] show_images = show_images.reshape(100,3,60,1) r,c = 10,10 fig,axs = plt.subplots(r,c) cnt = 0 for i in range(r): for j in range(c): xy = show_images[cnt] for k in range(len(xy)): x = xy[k][0:30] y = xy[k][30:60] if k == 0 : axs[i,j].plot(x,y,color='blue',linewidth=2) if k == 1

中国财政收入时间序列分析(二)

匿名 (未验证) 提交于 2019-12-03 00:34:01
这是我的第一篇博客,就献给了时间序列大作业了。为什么第一篇是二呢,因为对于时间序列分析,有传统模型的做法也有降低时间属性重要度,通过特征工程构造其他特征的做法。而我在项目中负责其他方法,正好把论文写完了,那么我就先写这个吧。此文中各模型不涉及推导,只有相关的code和整个流程,具体各模型推导以及实现我将在以后的博客更新。 可能第一篇写的格式还很奇怪。。。markdown也没怎么练习过,emmm不过没关系至少我开始写了hhh 如果code不好或者有bug或者有其他的想法也麻烦写一下哦,感谢! 数据可在 http://data.stats.gov.cn/easyquery.htm?cn=A01 找到 Prophet Regression Tree Gradient Boosting Decision Tree Random Forest XGBoost BP Neural Network LSTM 对于传统模型,也即我们常说的,AR,MA,ARMA,ARIMA,GARCH等模型,目前在数据挖掘算法盛行的时代,优缺点逐渐显露。传统模型的确在过去的时间里不断发展,完善形成了一种处理时间序列较好并且解释力较足的方法。并且在只有一元时间序列特征的情况下拟合效果与预测效果能达到较好,在多元时间序列特征的情况下能建立VAR

keras中 ValueError: Variable basic_block 1_0 batch_norm/moving_mean/biased already exists, disallowed

匿名 (未验证) 提交于 2019-12-03 00:29:01
basic_block 1_0 batch_norm /moving_mean/biased already exists, disallowed. Did you mean to set reuse=True in VarScope? Originally defined at: 我在keras里面报了这个错,也是一头雾水,网上百度了一下,可能是因为存在变量名重了,造成变量复用出现的问题。我检查了一下我的代码,把keras中的贯序编程全都换成了函数式编程的方式,就没有报这个错误了。 所以出现这个错,大家可以检查一下自己的贯序( Sequential layer ),换成函数式编程就好。。。 文章来源: keras中 ValueError: Variable basic_block 1_0 batch_norm/moving_mean/biased already exists, disallowed

第十四周的作业

匿名 (未验证) 提交于 2019-12-03 00:26:01
% matplotlib inline import random import numpy as np import scipy as sp import pandas as pd import matplotlib . pyplot as plt import seaborn as sns import statsmodels . api as sm import statsmodels . formula . api as smf sns . set_context ( "talk" ) Anscombe’s quartet Anscombe’s quartet comprises of four datasets, and is rather famous. Why? You’ll find out in this exercise. anascombe = pd . read_csv ( 'data/anscombe.csv' ) anascombe . head () .dataframe tbody tr th:only-of-type { vertical-align: middle; } .dataframe tbody tr th { vertical-align: top; } .dataframe thead th { text-align: right;

普林斯顿Stata教程 - Stata编程

匿名 (未验证) 提交于 2019-12-03 00:22:01
译者:谢作翰 | 连玉君 | ( 知乎 | 简书 | 码云 ) 原文链接: Princeton Stata 在线课程 (Princeton University - Stata Tutorial ) Stata 现场培训报名中 普林斯顿Stata教程 - Stata做图 普林斯顿Stata教程 - Stata数据管理 普林斯顿Stata教程 - Stata编程 Ŀ¼ 3.1 暂元 - 3.1.1 在暂元中存储文本 - 3.1.2 在暂元中存储结果 - 3.1.3 全局暂元与键盘映射 - 3.1.4 关于暂元的更多信息 3.2 循环 - 3.2.1 遍历数字序列循环 - 3.2.2遍历列表中的元素 - 3.2.3 循环专用列表 - 3.2.4 while循环 - 3.2.5 条件执行 3.3 编写命令 - 3.3.1 无参数程序 - 3.3.2 有参数的程序 - 3.3.3 复合引号 - 3.3.4 位置参数 - 3.3.5 使用Stata语法 - 3.3.6创建新变量 - 3.3.7 Coale-McNeil 拟合 3.4其他主题 这部分是对Stata编程的简单介绍。主要讨论 暂元 和 循环 ,并展示如何编写简单程序。编程是一个很大的主题,我在这里仅进行一些提示,希望能激发你进一步学习的兴趣。本文所涵盖的材料将帮助你更有效地使用Stata。 Stata

PyTorch基本用法(二)――Variable

匿名 (未验证) 提交于 2019-12-03 00:22:01
本文主要是PyTorch中Variable变量的一些用法。 import torch from torch.autograd import Variable tensor = torch.FloatTensor([[ 1 , 2 ], [ 3 , 4 ]]) # 定义Variable, requires_grad用来指定是否需要计算梯度 variable = Variable(tensor, requires_grad = True ) print tensor print variable 1 2 3 4 5 6 7 8 9 10 1 2 3 4 [torch.FloatTensor of size 2x2] Variable containing: 1 2 3 4 [torch.FloatTensor of size 2x2] 1 2 3 4 5 6 7 8 9 # 计算x^2的均值 tensor_mean = torch.mean(tensor * tensor) variable_mean = torch.mean(variable * variable) print tensor_mean print variable_mean 1 2 3 4 5 7.5 Variable containing: 7.5000 [torch.FloatTensor of size 1]