dnn

[转帖]CNN、RNN、DNN的一般解释

血红的双手。 提交于 2019-12-05 16:19:36
CNN、RNN、DNN的一般解释 https://www.jianshu.com/p/bab3bbddb06b?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation 0.0952017.10.16 19:10:36字数 3,145阅读 4,648 CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别? 转自知乎 科言君 的回答 神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。早期感知机的推动者是Rosenblatt。 (扯一个不相关的:由于计算技术的落后,当时感知器传输函数是用线拉动变阻器改变电阻的方法机械实现的,脑补一下科学家们扯着密密麻麻的导线的样子…) 但是,Rosenblatt的单层感知机有一个严重得不能再严重的问题,即它对稍复杂一些的函数都无能为力(比如最为典型的“异或”操作)。连异或都不能拟合,你还能指望这货有什么实际用途么o(╯□╰)o 随着数学的发展,这个缺点直到上世纪八十年代才被Rumelhart、Williams、Hinton、LeCun等人(反正就是一票大牛)发明的多层感知机

Tensorflow Invalid Argument: Assertation Failed [Label IDs must < n_classes]

匿名 (未验证) 提交于 2019-12-03 10:24:21
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I get an error implementing a DNNClassifier in Tensorflow 1.3.0 with Python 2.7. I got the sample code from the Tensorflow tf.estimator Quickstart Tutorial and I want to run it with my own dataset: 3D coordinates and 10 different classes (int labels). Here is my implementation: #!/usr/bin/env python # -*- coding: utf-8 -*- def ReadLabels(file): #load the labels from test file here labelFile = open(file, "r") Label = labelFile.readlines(); returnL = [[Label[i][j+1] for j in range(len(Label[0])-3)] for i in range(len(Label))] returnLint = list

Why is DNN killing my authentication cookies when I access an ashx from a child portal?

匿名 (未验证) 提交于 2019-12-03 08:52:47
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 由 翻译 强力驱动 问题: I am seeing a really wierd issue that only happens with non-administration users. When the user logs in and accesses one page, they are logged out of the system. The page finishes loading as if they were logged in, but once they try any other actions (including refreshing the browser page) they are considered not logged in and presented with a login prompt. Opening up fiddler, I can see one of the responses from the server contains the following: Response sent 71 bytes of Cookie data: Set-Cookie: portalaliasid=; expires=Sat, 08-May

Opencv&Tensorflow DNN

匿名 (未验证) 提交于 2019-12-03 00:42:01
import numpy as np import tensorflow as tf import cv2 ###导入图像为numpy数组 def load_image_into_numpy_array(image):   (im_width, im_height) = image.size return np.array(image.getdata()).reshape((im_height, im_width, 3)).astype(np.uint8) ###视频帧提取 camera = cv2.VideoCapture(‘/path/to/video‘) res,frame = camera.read() #res:True or False;frame:image ### detection_graph = tf.Graph() with detection_graph.as_default():#打开一个图   graph_def = tf.GraphDef()#初始化   with tf.gfile.GFile(‘path/to/pd‘, ‘rb‘) as pd:#读取pb文件命名为fid     serialized_graph = pd.read() #read 为serialized_graph连载图片     graph_def.ParseFromString

用深度学习(DNN)构建推荐系统 - Deep Neural Networks for YouTube Recommendations论文精读

匿名 (未验证) 提交于 2019-12-03 00:19:01
用深度学习(DNN)构建推荐系统 - Deep Neural Networks for YouTube Recommendations论文精读 清凇 勇敢闯一闯 292 人赞了该文章 这篇论文 Deep Neural Networks for YouTube Recommendations 是google的YouTube团队在推荐系统上DNN方面的尝试,发表在16年9月的RecSys会议。虽然去年读过,一方面因为这篇paper的来源于youtube团队的工业实践,G家的东西,非常值得好好研究下;另一方面,目前正在公司推进的项目对该论文有参考(both method and insight),也正准备在team内部分享下,因此整理下论文精读笔记。(PS:为方便阅读,下文以第一人称代替作者) 虽然国内必须翻墙才能登录YouTube,但想必大家都知道这个网站。基本上算是世界范围内视频领域的最大的网站了,坐拥10亿量级的用户,网站内的视频推荐自然是一个非常重要的功能。本文就focus在 YouTube视频推荐的DNN算法,文中不但详细介绍了Youtube推荐算法和架构细节,还给了不少 practical lessons and insights,很值得精读一番 。下图便是YouTube APP视频推荐的一个例子。 在推荐系统领域,特别是YouTube的所在视频推荐领域,主要面临三个挑战:

CTR@DeepFM

匿名 (未验证) 提交于 2019-12-03 00:14:01
1. DeepFM算法    结合FM算法和DNN算法,同时提取低阶特征和高阶特征,然后组合。FM算法负责对一阶特征及由一阶特征两两组合成的二阶特征进行特征提取;DNN算法负责对由输入的一阶特征进行全连接等操作形成的高阶特征进行特征提取。 2. DeepFM优势    端到端模型,无需特征工程。   结合了广度和深度模型的优点,联合训练FM和DNN模型,共享底层参数,同时学习低阶特征组合和高阶特征组合。   DeepFM共享Embedding Vector,训练更加高效。 3. DeepFM表达式 总体: FM: DNN:   前馈过程: 其中是 是层数, 是模型的权重, 是层的偏置, 是激活函数。   DNN预测模型表达式为:    其中 为隐藏层层数。 4. 模型结构   DeepFM结构图   FM结构图   DNN结构图   稀疏映射为稠密向量图 来源:博客园 作者: LuckPsyduck 链接:https://www.cnblogs.com/LuckPsyduck/p/11670116.html

应用深度神经网络预测学生期末成绩

匿名 (未验证) 提交于 2019-12-02 23:49:02
基本思路: 首先,将学生成绩(平时成绩x、期末成绩y:csv格式)装载; 接着,将成绩数据标准化。(PS:虽然这里的成绩已经[0~100]之间了,本文是为了学习DNN,故不省略这一步) 接着,将平时成绩x,期末成绩y进一步拆分(按比例,如20%)为训练数据和测试数据。PS:测试数据用来检验训练出的模型性能 接着,创建DNN模型。依次设置一系列的参数。 接着,训练模型(fit函数)。model1.fit(x_train, y_train) 接着,评估模型性能。用测试集数据评估,还可以用训练集数据。 如果性能不好,则调参(第四步) 先设置DNN每层计算方式,先设置每个隐层、最后设置输出层 + 隐层。设置参数:激活函数(Sigmoid、ReLU: Rectifier)、计算单元数量units + 输出层。Layer("Linear") 学习速率: learning_rate=0.02 random_rate = 2019 : 用来再现相同的数据 模型允许最大迭代次数:n_iter = 10

DNN

匿名 (未验证) 提交于 2019-12-02 23:38:02
构建图阶段 构建神经网络层 构建计算图 计算图阶段 import tensorflow as tf from tensorflow . examples . tutorials . mnist import input_data import numpy as np from tensorflow . contrib . layers import fully_connected 构建图阶段 # 构建图阶段 n_inputs = 28 * 28 n_hidden1 = 300 n_hidden2 = 100 n_outputs = 10 X = tf . placeholder ( tf . float32 , shape = ( None , n_inputs ) , name = 'X' ) y = tf . placeholder ( tf . int64 , shape = ( None ) , name = 'y' ) 构建神经网络层 # 构建神经网络层,我们这里两个隐藏层,基本一样,除了输入 inputs 到每个神经元的连接不同 # 和神经元个数不同 # 输出层也非常相似,只是激活函数从 ReLU 变成了 Softmax 而已 # 将构造多层神经网络的函数封装一下 def neuron_layer ( X , n_neurons , name , activation

推荐系统系列(三):FNN理论与实践

我的梦境 提交于 2019-12-02 18:54:35
背景 在FM之后出现了很多基于FM的升级改造工作,由于计算复杂度等原因,FM通常只对特征进行二阶交叉。当面对海量高度稀疏的用户行为反馈数据时,二阶交叉往往是不够的,三阶、四阶甚至更高阶的组合交叉能够进一步提升模型学习能力。如何能在引入更高阶的特征组合的同时,将计算复杂度控制在一个可接受的范围内? 参考图像领域CNN通过相邻层连接扩大感受野的做法,使用DNN来对FM显式表达的二阶交叉特征进行再交叉,从而产生更高阶的特征组合,加强模型对数据模式的学习能力 [1]。这便是本文所要介绍的FNN(Factorization Machine supported Neural Network)模型,下面将对FNN进行详细介绍。 分析 1. FNN 结构 FNN的思想比较简单,直接在FM上接入若干全连接层。利用DNN对特征进行隐式交叉,可以减轻特征工程的工作,同时也能够将计算时间复杂度控制在一个合理的范围内。 为了加速模型的收敛,充分利用FM的特征表达能力, FNN采用了两阶段训练方式 。首先,针对任务构建FM模型,完成模型参数的学习。然后,将FM的参数作为FNN底层参数的初始值。这种两阶段方式的应用,是为了将FM作为先验知识加入到模型中,防止因为数据稀疏带来的歧义造成模型参数偏差。 However, according to [21], if the observational

A Deep Neural Network Approach To Speech Bandwidth Expansion

孤街浪徒 提交于 2019-12-01 11:43:07
题名:一种用于语音带宽扩展的深度神经网络方法 作者:Kehuang Li;Chin-Hui Lee 2015年出来的 摘要   本文 提出了一种基于深度神经网络(DNN)的语音带宽扩展(BWE)方法。 利用对数谱功率作为输入输出特征进行所需的非线性变换,训练神经网络来实现这种高维映射函数。 在10小时的大型测试集上对该方法进行评估时,我们发现与传统的基于高斯混合模型(GMMs)的BWE相比,DNN扩展语音信号在信噪比和对数谱失真方面具有很好的客观质量度量。 在假定相位信息已知的情况下,主观听力测试对DNN扩展语音的偏爱度为69%,对GMM的偏爱度为31%。 对于实际运行中的测试,当相位信息从给定的窄带信号imaged(成像)时,首选项的比较上升到84%,而不是16%。 正确的相位恢复可以进一步提高该方法的BWE性能。 关键词:深度神经网络,语音带宽扩展,频谱映射,相位估计 1 引言    将语音带宽从窄带(4khz带宽)扩展到宽带(8khz带宽)已经研究了几十年,因为带宽在早期是一种昂贵的资源。 即使现在语音传输的带宽不再受到紧张的限制,我们在现有的公共交换电话网(PSTN)系统中仍然面临着低带宽的限制。 为了提高语音在PSTN上的收听质量,人们一直在努力人为地扩展带宽。   早期对带宽扩展(BWE)的研究多集中于估计高频带的频谱包络线,利用低频带产生的激励恢复高频频谱[1]