矩阵转置

机器学习系列 | 线性回归模型(简单线性回归、局部线性回归、非线性关系)

爷,独闯天下 提交于 2019-11-26 15:50:54
1.什么是线性回归? 线性回归是试图在一堆数据中训练得到自变量x和因变量y中一组线性关系,如 y = w x + b y=wx+b y = w x + b 。例如把人脚底板长度作为自变量,身高作为因变量,那么在这两种数据之间就可以做一个简单线性回归,可以得到脚底板长度和身高的关系式。 维基百科:线性回归 在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。 周志华:机器学习 基于均方误差最小化来进行模型求解的方法称为“最小二乘法”,线性回归中最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。 2. 线性回归的目标函数 要想求得这组线性关系,即求得相应的回归系数的值。那么先讲解一下线性回归的目标函数。 假设一堆数据中因变量为y,自变量为 x 1 , x 2 , . . . , x n x_1,x_2,...,x_n x 1 ​ , x 2 ​ , . . . , x n ​ ,对其进行线性回归,求得结果会如下所示: y = w 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n = ∑ i = 0 n w i x i = w T x y=w_0+w_1x_1+w_2x_2+...+w_nx_n=\sum_{i=0}^nw_ix_i=w^Tx y = w 0 ​ + w 1 ​

深度学习-DCGAN论文的理解笔记

懵懂的女人 提交于 2019-11-26 12:36:19
训练方法 DCGAN 的训练方法跟GAN 是一样的,分为以下三步: (1)for k steps:训练D 让式子[logD(x) + log(1 - D(G(z)) (G keeps still)]的值达到最大 (2)保持D 不变,训练G 使式子[logD(G(z))]的值达到最大 (3)重复step(1)和step(2)直到G 与D 达到纳什均衡 Alec Radford等人于2016年初提出DCGAN以改善GAN的可训练性。他们认为传统GAN之所以不稳定,一个原因便是判别器D搭载的是初级的多层感知机模型,为了将火热的CNN纳入GAN的体系中,作者将多层感知机用CNN进行替换,并做了如下改进:  1 将池化层用stride=1stride=1的卷积层代替 2 将输给生成器G的100维噪声映射为四维张量用作CNN输入而不是向量 3 每进行一次卷积操作就进行批规一化(Batch Normalization) 4 使用ReLU层替换传统的Sigmoid函数,并对输出层使用Tanh激活 5 对判别器D使用LeakyReLU函数作为激活函数 6 移除所有全连接层   在以上改进的支撑下,论文给出了生成器G的网络结构:     经实验验证,该模型生成的图像较为稳定,虽然只能生成64*64大小的图像,但是这可以通过一些基本的图像处理方法,如金字塔来提升生成图像的分辨率

友链

扶醉桌前 提交于 2019-11-26 11:06:19
同届 chdy startaidou Faullest blng melody AK-ls Tyouchie millope yycdeboke gcfer BIGBIGPPT 神犇 zkw byvoid hzwer PoPoQQQ matrix67 yyb Tangenter ⚡cdecl⚡ 学长 Cydiater chty 137shoebills xorex qywyt my_snowing strangedddf UnicornXi left_right Cyxhsa rain under sea mdb jlfeng toughyt 常用网站 魔方小站 OIer博客 马同学高等数学 懒得画图论的同学有福啦 在线手写公式识别 NOIp dqcsm1964 宣传视频 2018年山东科技大学ACM编程竞赛协会纳新宣传视频 2016年成都七中OI队宣传视频 数论 数论知识总结——史诗大作(这是一个flag) OI数学知识 感受一下无穷的公式 解析几何入门 Dp 状压DP详解(位运算) 背包问题 DP 动态规划初步——各种子序列问题 图论 C++迪杰斯特拉算法求最短路径 图的存储结构之邻接表(详解) 图论中的割点,割边,圈与块 Tarjan 浅析强连通分量(Tarjan和kosaraju) Tarjan算法:求解图的割点与桥(割边) 双连通分量 tarjan求强连通分量+缩点+割点