cudnn

RuntimeError: CUDNN_STATUS_INTERNAL_ERROR

纵然是瞬间 提交于 2019-12-07 14:16:13
问题 On ubuntu14.04,I use pytorch with cudnn.This problem happened: Traceback (most recent call last): File "main.py", line 58, in <module> test_detect(test_loader, nod_net, get_pbb, bbox_result_path,config1,n_gpu=config_submit['n_gpu']) File "/home/ubuntu/nndl/DSB2017/test_detect.py", line 52, in test_detect output = net(input,inputcoord) File "/home/ubuntu/anaconda2/lib/python2.7/site-packages/torch/nn/modules/module.py", line 252, in __call__ result = self.forward(*input, **kwargs) File "/home

Native TF vs Keras TF performance comparison

喜欢而已 提交于 2019-12-07 09:17:59
问题 I created the exact same network with native and backend tensorflow but after many hours of testing using number of different parameters, still couldn't figure out why keras outperforms the native tensorflow and produces better(slightly but better) results. Does Keras implement a different weight initializer method? or performs different weight decay approach other than tf.train.inverse_time_decay? P.s. the score difference is always like Keras with Tensorflow: ~0.9850 - 0.9885 - ~45 sec. avg

深度学习环境搭建

眉间皱痕 提交于 2019-12-06 13:41:23
深度学习环境搭建 目录 说明 硬软件环境 NVIDIA显卡驱动安装 cuda8.0安装 cuDNN6.0安装 说明 本文档讲述的是搭建深度学习环境的过程,旨在给各位入坑深度学习的小伙伴提供一个环境安装的说明。 截止到本文档写作时间,cuda已经更新到9.0。由于使用cuda9来编译Tensorflow会遇到各种问题,我在安装好cuda9.0后又卸载了cuda9.0,重新安装了cuda8.0,才顺利编译了Tensorflow。 本文档基于已有的硬件环境和软件环境安装了GTX 1080 Ti的驱动程序,以及cuda8.0和cuDNN6.0。 硬件环境 本次搭建深度学习环境的硬件配置如下: 硬件 配置 处理器 Intel Xeon(R)CPU E5-2640 v4@ 2.40GHz x 20 内存 64G 硬盘 1.3TB 图形卡 GeForce GTX 1080Ti/PCle/SSE2 本次搭建深度学习环境的软件如下: 软件 配置 操作系统 Ubuntu 16.04 64-bit NVIDIA显卡驱动安装 首先去 官网 查找适配自己GPU的驱动版本号。我在官网上查询出来的版本号是384.98。 $ sudo add -apt -repository ppa:graphics -drivers /ppa $ sudo apt -get update $ sudo apt -get

深度学习之路--环境篇(centos下搭建深度学习开发环境)

我们两清 提交于 2019-12-06 13:40:42
 luffy搭建深度学习环境可谓一波三折, 最后终于搭建成功了, 原来用cpu跑30分钟的代码, gpu上1分30秒就跑完了(感动哭).  另外两篇博客可作为参考, 毕竟踩了许多坑: 深度学习之路–环境篇(使用docker搭建tensorflow_gpu开发环境) 深度学习之路–环境篇(TensorFlow_GPU+CUDA) 基本步骤 1 安装NVIDIA驱动  luffy这里是在服务器上进行搭建环境的, 驱动已经安装好了, 但是安装驱动很关键, 务必要匹配自己的显卡型号和后面准备安装的cuda版本. 网上有很多教程, luffy就不赘述了(主要是自己也不太熟>_<). 2 安装anaconda3 由于luffy使用使用指令安装几次不成功, 所以采用下载sh文件手动安装的办法; 去官网 下载anaconda3, 或者去 清华开源软件镜像 下载更快一点. 转到安装文件所在目录, 使用以下指令进行安装, 一路默认即可, 或者自己指定安装目录. $sh Anaconda3-2018.12-Linux-x86_64.sh 3 创建tensorflow-gpu + cuda + cudnn环境 接下来就是体现anaconda3的强大之处了, 一步到位 首先选定要安装那个版本的cuda, 具体参考 Tensorflow不同版本要求与CUDA及CUDNN版本对应关系 创建conda环境

Install gpu version tensorflow with older version CUDA and cuDNN [duplicate]

末鹿安然 提交于 2019-12-06 06:42:00
问题 This question already has answers here : Which TensorFlow and CUDA version combinations are compatible? (5 answers) Closed last year . Currently, I need to install gpu version tensorflow on a machine that existing an older version CUDA and cuDNN, and my question is how can I get it done without re-installing CUDA and cuDNN since other package (see pytorch) need it. 回答1: Check CUDA version with below command according to this post. $ nvcc --version Check cuDNN version with below command

caffe_ocr开源项目学习笔记

送分小仙女□ 提交于 2019-12-06 04:19:55
本机配置cuda8.0使用的cudnn是下面要说的重点,vs2015,win10,1080Ti 下载了开源项目: https://github.com/senlinuc/caffe_ocr 编译的时候报错:caffe_ocr-master/src/caffe/layers/DenseBlock_layer.cu(283): error : too many arguments in function call 调用的地方: CUDNN_CHECK(cudnnSetConvolution2dDescriptor(*convBC_Descriptor, 0 , 0 , 1 , 1 , 1 , 1 , CUDNN_CONVOLUTION, cudnn::dataType<Dtype>::type)); 函数定义: 1 cudnnStatus_t CUDNNWINAPI cudnnSetConvolution2dDescriptor( 2 cudnnConvolutionDescriptor_t convDesc, 3 int pad_h, // zero-padding height 4 int pad_w, // zero-padding width 5 int u, // vertical filter stride 6 int v, // horizontal filter

Tensorflow2.0学习(一)

僤鯓⒐⒋嵵緔 提交于 2019-12-06 01:08:19
站长资讯平台 :今天学习一下Tensorflow2.0 的基础 核心库,@tf.function ,可以方便的将动态图的语言,变成静态图,在某种程度上进行计算加速 TensorFlow Lite TensorFlow.JS TensorFlow Extended 构成了TensorFlow 的生态系统 优势: 1、GPU加速 体现在大数据量运算的时候,的运算时间。如果使用CPU进行运算,那么计算是通过串行模式完成 GPU则会加速运算,并行操作,快速运行。 2、自动求导 自带自动求导工具,方便快速求导。 3、神经网络 直接调用TensorFlow提供的接口, 不需要我们自己去实现。 tf.matmul layers.Demse tf.nn.conv2d layers.Conv2D tf.nn.relu layers.SimpleRNN tf.nn.max_pool2d layers.LSTM tf.nn.sigmoid layers.RelU tf.nn.softmax layers.MaxPool2D 一 、 环境安装 Win10 Anaconda 、Python3.7 CUDA 10.0 cuDNN TensorFlow 2.0 PyCharm 1、Anaconda安装,这里不在赘述,不会的朋友自行百度 测试有没有安装好Anaconda,直接打开命令行,输入:conda list

黑苹果安装CUDA,cudnn

☆樱花仙子☆ 提交于 2019-12-05 19:42:33
这个部分我是尝试着安装的,没想到一次成功,步骤如下: 先介绍系统、硬件配置 1. 步骤一,CUDA DRIVERS安装 下载地址 我直接下载了最新版,并查看了要求。在页面详细写了: ① 支持的显卡 ; ② 支持的最新系统 。 需要检查是否匹配。 另外,还标明了CUDA支持的最新版本为 CUDA 10.1 Update 1 步骤二,CUDA安装 下载链接 。上一步查到了驱动支持的最新cuda版本,下载安装: 安装完成后,配置 CUDA 环境,编辑 ~/.bash_profile 文件, 在命令行运行 sudo vim .bash_profile , 添加下面内容: export CUDA_HOME=/usr/local/cuda export DYLD_LIBRARY_PATH="$CUDA_HOME/lib:$CUDA_HOME/extras/CUPTI/lib" export LD_LIBRARY_PATH=$DYLD_LIBRARY_PATH export PATH=$DYLD_LIBRARY_PATH:$PATH export flags="--config=cuda --config=opt" 执行 . ~/.bash_profile 刷新。 步骤三, cudnn安装 下载链接 。从中选择cuda(我的是10.1)对应的cudnn版本。 解压,然后把解压后的 cuda

RuntimeError: CUDNN_STATUS_INTERNAL_ERROR

可紊 提交于 2019-12-05 18:38:56
On ubuntu14.04,I use pytorch with cudnn.This problem happened: Traceback (most recent call last): File "main.py", line 58, in <module> test_detect(test_loader, nod_net, get_pbb, bbox_result_path,config1,n_gpu=config_submit['n_gpu']) File "/home/ubuntu/nndl/DSB2017/test_detect.py", line 52, in test_detect output = net(input,inputcoord) File "/home/ubuntu/anaconda2/lib/python2.7/site-packages/torch/nn/modules/module.py", line 252, in __call__ result = self.forward(*input, **kwargs) File "/home/ubuntu/anaconda2/lib/python2.7/site-packages/torch/nn/parallel/data_parallel.py", line 58, in forward

Pytorch学习0.01:cudnn.benchmark= True的设置

◇◆丶佛笑我妖孽 提交于 2019-12-05 18:02:11
设置这个 flag 可以让内置的 cuDNN 的 auto-tuner 自动寻找最适合当前配置的高效算法,来达到优化运行效率的问题。 应该遵循以下准则: 如果网络的输入数据维度或类型上变化不大,也就是每次训练的图像尺寸都是一样的时候,设置 torch.backends.cudnn.benchmark = true 可以增加运行效率; 如果网络的输入数据在每次 iteration 都变化的话,会导致 cnDNN 每次都会去寻找一遍最优配置,这样反而会降低运行效率。 torch.backends.cudnn.benchmark = true 来源: https://www.cnblogs.com/captain-dl/p/11938864.html