tensorflow

Tensorboard教程:高维向量可视化

一曲冷凌霜 提交于 2020-12-05 00:41:34
Tensorflow高维向量可视化 觉得有用的话,欢迎一起讨论相互学习~ Follow Me 参考文献 强烈推荐 Tensorflow实战Google深度学习框架 实验平台: Tensorflow1.4.0 python3.5.0 MNIST数据集 将四个文件下载后放到当前目录下的MNIST_data文件夹下 #<font color=Red>高维向量表示</font> 为了更加直观的了解embedding 向量的效果,TensorBoard 提供了PROJECTOR 界面来可视化高维向量之间的关系。PROJECTOR 界面可以非常方便地可视化多个高维向量之间的关系。比如在图像迁移学习中可以将一组目标问题的图片通过训练好的卷积层得到瓶颈层 ,这些瓶颈层向量就是多个高维向量。如果在目标问题图像数据集上同一种类的图片在经过卷积层之后得到的瓶颈层向量在空间中比较接近,那么这样迁移学习得到的结果就有可能会更好。类似地,在训练单词向量时,如果语义相近的单词所对应的向量在空间中的距离也比较接近的话,那么自然语言模型的效果也有可能会更好。 为了更直观地介绍TensorBoard PROJECTOR 的使用方法,本节将给出一个MNIST的样例程序。这个样例程序在MNIST 数据上训练了一个简单的全连接神经网络。本节将展示在训练100轮和10000轮之后

TensorFlow CUDA_ERROR_OUT_OF_MEMORY

荒凉一梦 提交于 2020-12-04 18:05:49
问题 I'm trying to build a large CNN in TensorFlow, and intend to run it on a multi-GPU system. I've adopted a "tower" system and split batches for both GPUs, while keeping the variables and other computations on the CPU. My system has 32GB of memory, but when I run my code I get the error: E tensorflow/stream_executor/cuda/cuda_driver.cc:924] failed to alloc 17179869184 bytes on host: CUDA_ERROR_OUT_OF_MEMORY W ./tensorflow/core/common_runtime/gpu/pool_allocator.h:195] could not allocate pinned

GAN模型生成手写字

假装没事ソ 提交于 2020-12-04 15:52:15
概述:在前期的文章中,我们用TensorFlow完成了对手写数字的识别,得到了94.09%的识别准确度,效果还算不错。在这篇文章中,笔者将带领大家用GAN模型,生成我们想要的手写数字。 GAN简介 对抗性生成网络(GenerativeAdversarial Network),由 Ian Goodfellow 首先提出,由两个网络组成,分别是generator网络(用于生成)和discriminator网络(用于判别)。GAN网络的目的就是使其自己生成一副图片,比如说经过对一系列猫的图片的学习,generator网络可以自己“绘制”出一张猫的图片,且尽量真实。discriminator网络则是用来进行判断的,将一张真实的图片和一张由generator网络生成的照片同时交给discriminator网络,不断训练discriminator网络,使其可以准确将discriminator网络生成的“假图片”找出来。就这样,generator网络不断改进使其可以骗过discriminator网络,而discriminator网络不断改进使其可以更准确找到“假图片”,这种相互促进相互对抗的关系,就叫做对抗网络。图一中展示了GAN模型的结构。 思路梳理 将MNIST数据集中标签为0的图片提取出来,然后训练discriminator网络,进行手写数字0识别,接着让generator产生一张随机图片

Google Object detection配置与使用

妖精的绣舞 提交于 2020-12-04 10:14:20
Google Object detection 前言: 本文记录了使用Google发布的Object detection(July 1st, 2019)接口,完成了对标注目标的检测。参考了很多博文,在此记录配置过程,方便之后的再次调用。 首先贴出完整的代码地址: https://github.com/tensorflow/models Tensorflow Object Detection API: https://github.com/tensorflow/models/tree/master/research/object_detection 一、环境配置 参考网址: https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md 所有的环境都搭建在Anaconda创建的环境下 在windows10和Ubuntu下我都进行了配置,下方的配置会注明操作系统的区别 依赖包安装 在上面参考网址上,已经明确给出了所需要的环境,直接用pip命令下载即可。 Protobuf 安装 下载地址: https://github.com/google/protobuf/releases win: win10系统下载了 protoc-3.9.1-win64.zip

海康威视网络摄像头SDK中Demo的二次开发(运行)

被刻印的时光 ゝ 提交于 2020-12-04 08:51:09
本文链接:https://blog.csdn.net/qq_15029743/article/details/79733960 我们买回来的网络摄像头可以在官网下载到SDK开发包: 下载下来SDK后我们解压,就可以看到里面包含一些开发文档以及一些Demo示例: 我们点开Demo示例,可以看到里面有各种语言的示例,这里我们以MFC为例进行说明: 这里,我们需要注意阅读编译环境说明: 其中,MFC综合示例是没有问题的,我们直接导入头文件和库文件就可以运行,但是对于分功能的示例就存在一些问题,这里我们就以分功能中的第一个为例进行演示: 由于电脑上没有安装VS2008,所以这里无视环境,直接用VS2013单向升级后打开: 打开后我们首先要进行一个地方的修改,这是SDK文档的一个失误,就是输出目录不一致,这会直接导致后面执行的出错: 这里我们选择修改配置属性→常规→输出目录(两个保持一致即可),修改为: .\bin\ 接下来我们进行文件的导入,这里需要选择Debug x64,这个的选择和你下载的SDK以及你的系统有关: 右击属性,填入我们头文件的路径: 修改完成后记得点应用,同样的操作我们再添加库文件: 这是我们一定记得选择Debug为x64,否则会各种报错: 紧接着我们生成运行: 提示缺少DLL文件,这时我们把这些文件按照SDK说明文档的做法复制到bin目录下即可正常运行: 注

TensorFlow Wide And Deep 模型详解与应用(一)

偶尔善良 提交于 2020-12-04 08:13:57
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/heyc861221/article/details/80131369 作者简介: 汪剑,现在在出门问问负责推荐与个性化。曾在微软雅虎工作,从事过搜索和推荐相关工作。 责编: 何永灿(heyc@csdn.net) 本文首发于CSDN,未经允许不得转载。 Wide and deep 模型是 TensorFlow 在 2016 年 6 月左右发布的一类用于分类和回归的模型,并应用到了 Google Play 的应用推荐中 [1]。wide and deep 模型的核心思想是结合线性模型的记忆能力(memorization)和 DNN 模型的泛化能力(generalization),在训练过程中同时优化 2 个模型的参数,从而达到整体模型的预测能力最优。 结合我们的产品应用场景同 Google Play 的推荐场景存在较多的类似之处,在经过调研和评估后,我们也将 wide and deep 模型应用到产品的推荐排序模型,并搭建了一套线下训练和线上预估的系统。鉴于网上对 wide and deep 模型的相关描述和讲解并不是特别多,我们将这段时间对 TensorFlow1.1 中该模型的调研和相关应用经验分享出来,希望对相关使用人士带来帮助。 wide and deep

Wide and deep 模型【一】

江枫思渺然 提交于 2020-12-04 08:00:18
一、论文概述 Wide and deep 模型是 TensorFlow 在 2016 年 6 月左右发布的一类用于分类和回归的模型,并应用到了 Google Play 的应用推荐中 [1]。 wide and deep 模型的核心思想是结合线性模型的记忆能力(memorization)和 DNN 模型的泛化能力(generalization),在训练过程中同时优化 2 个模型的参数,从而达到整体模型的预测能力最优。 结合我们的产品应用场景同 Google Play 的推荐场景存在较多的类似之处,在经过调研和评估后,我们也将 wide and deep 模型应用到产品的推荐排序模型,并搭建了一套线下训练和线上预估的系统。鉴于网上对 wide and deep 模型的相关描述和讲解并不是特别多,我们将这段时间对 TensorFlow1.1 中该模型的调研和相关应用经验分享出来,希望对相关使用人士带来帮助。 wide and deep 模型的框架在原论文的图中进行了很好的概述。 wide 端 对应的是线性模型,输入特征可以是 连续特征,也可以是稀疏的离散特征 , 离散特征之间进行交叉后可以构成更高维的离散特征 。线性模型训练中通过 L1 正则化,能够很快收敛到有效的特征组合中。 deep 端 对应的是 DNN 模型,每个特征对应一个低维的实数向量,我们称之为特征的 embedding

How to configure dataset pipelines with Tensorflow make_csv_dataset for Keras Model

落花浮王杯 提交于 2020-12-04 05:17:06
问题 I have a structured dataset(csv features files) of around 200 GB. I'm using make_csv_dataset to make the input pipelines. Here is my code def pack_features_vector(features, labels): """Pack the features into a single array.""" features = tf.stack(list(features.values()), axis=1) return features, labels def main(): defaults=[float()]*len(selected_columns) data_set=tf.data.experimental.make_csv_dataset( file_pattern = "./../path-to-dataset/Train_DS/*/*.csv", column_names=all_columns, # all

How to configure dataset pipelines with Tensorflow make_csv_dataset for Keras Model

感情迁移 提交于 2020-12-04 05:13:29
问题 I have a structured dataset(csv features files) of around 200 GB. I'm using make_csv_dataset to make the input pipelines. Here is my code def pack_features_vector(features, labels): """Pack the features into a single array.""" features = tf.stack(list(features.values()), axis=1) return features, labels def main(): defaults=[float()]*len(selected_columns) data_set=tf.data.experimental.make_csv_dataset( file_pattern = "./../path-to-dataset/Train_DS/*/*.csv", column_names=all_columns, # all

How to configure dataset pipelines with Tensorflow make_csv_dataset for Keras Model

半城伤御伤魂 提交于 2020-12-04 05:13:24
问题 I have a structured dataset(csv features files) of around 200 GB. I'm using make_csv_dataset to make the input pipelines. Here is my code def pack_features_vector(features, labels): """Pack the features into a single array.""" features = tf.stack(list(features.values()), axis=1) return features, labels def main(): defaults=[float()]*len(selected_columns) data_set=tf.data.experimental.make_csv_dataset( file_pattern = "./../path-to-dataset/Train_DS/*/*.csv", column_names=all_columns, # all