cuda

Tensorflow的StreamExecutor编程

瘦欲@ 提交于 2020-04-06 13:56:07
首先了解一下结构化编译器前端Clang。 背景与概览 Low Level Virtual Machine (LLVM) 是一个开源的编译器架构,它已经被成功应用到多个应用领域。Clang ( 发音为 /klæŋ/) 是 LLVM 的一个编译器前端,它目前支持 C, C++, Objective-C 以及 Objective-C++ 等编程语言。Clang 对源程序进行词法分析和语义分析,并将分析结果转换为 Abstract Syntax Tree ( 抽象语法树 ) ,最后使用 LLVM 作为后端代码的生成器。 Clang 的开发目标是提供一个可以替代 GCC 的前端编译器。与 GCC 相比,Clang 是一个重新设计的编译器前端,具有一系列优点,例如模块化,代码简单易懂,占用内存小以及容易扩展和重用等。由于 Clang 在设计上的优异性,使得 Clang 非常适合用于设计源代码级别的分析和转化工具。Clang 也已经被应用到一些重要的开发领域,如 Static Analysis 是一个基于 Clang 的静态代码分析工具。 本文将简单介绍 Clang 的背景知识和功能特性,并通过一个小例子介绍如何使用 Clang 的库来编写一个小程序来统计源代码中的函数。 Clang 的开发背景 由于 GNU 编译器套装 (GCC) 系统庞大,而且 Apple 大量使用的 Objective-C

【pytorch-ssd目标检测】训练自己创建的数据集

我的梦境 提交于 2020-04-06 13:25:50
制作类似pascal voc格式的目标检测数据集: https://www.cnblogs.com/xiximayou/p/12546061.html 代码来源:https://github.com/amdegroot/ssd.pytorch 拷贝下来的代码好多坑要踩。。。 我将其上传到谷歌colab上,当前目录结构如下: 需要说明的是,虽然我们只有2类,但是,要加上背景一类,所以总共我们有3类。 首先我们要读取自己的数据集 在config.py中 # config.py import os.path # gets home dir cross platform # HOME = os.path.expanduser("~") HOME = os.path.expanduser("/content/drive/My Drive/pytorch_ssd/") # for making bounding boxes pretty COLORS = ((255, 0, 0, 128), (0, 255, 0, 128), (0, 0, 255, 128 ), (0, 255, 255, 128), (255, 0, 255, 128), (255, 255, 0, 128 )) MEANS = (104, 117, 123 ) mask = { 'num_classes': 3, 'lr

libcudart.so.10.0: cannot open shared object file: No such file or directory

倾然丶 夕夏残阳落幕 提交于 2020-04-06 11:43:06
tensorflow 2.0.0b1 cuda:10.1 报错,使用 tf.test.is_gpu_available()测试时也是false,原来是这个版本只支持10.0,不支持10.1. 解决办法:无需删除cuda10.1,也无需再下载cuda10.0包,直接 conda install cudatoolkit = 10.0。 https://github.com/tensorflow/tensorflow/issues/30638 来源: oschina 链接: https://my.oschina.net/u/4412457/blog/3220451

window10上安装python+CUDA+CuDNN+TensorFlow

纵饮孤独 提交于 2020-04-06 08:53:09
确认显卡支持 cuda 首先确认显卡是否是 英伟达 NVIDIA 的,当然 AMD 也支持,但是不常用; NVIDIA 显卡有 GTX Geforce、Quadra 和 Tesla 三大系列,然后到如下网站查看是否支持 Cuda https://developer.nvidia.com/cuda-gpus 点击如下链接即可查看每个系列支持 cuda 的显卡版本 安装显卡驱动 在安装CUDA过程中,你可能各种尝试,把显卡驱动整坏了,可以重新安装;    【我就是这样,然后死活装不上 cuda,后来重装驱动,搞定】 在 https://www.nvidia.cn/Download/index.aspx?lang=cn 获取自己显卡的最新驱动版本; 下载,双击安装; 安装 cuda 驱动 访问CUDA的下载网站: https://developer.nvidia.com/cuda-toolkit ,可以看到CUDA目前的最新版本,可以通过选择下面的“Legacy Releases”链接来下载旧版本的驱动; 建议选择自定义安装,然后只勾选cuda,建议安装在默认文件路径; 把 安装路径下的 bin 目录设为 环境变量 :C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin 安装 cudnn 库 CuDNN库(The

pytorch查看CUDA支持情况,只需要三行代码,另附Cuda runtime error (48) : no kernel image is available for execution处理办法

最后都变了- 提交于 2020-04-05 20:57:40
1 import torch 2 import torchvision 3 print (torch.cuda.is_available()) 上面的命令只是检测CUDA是否安装正确并能被Pytorch检测到,并没有说明是否能正常使用,要想看Pytorch能不能调用cuda加速,还需要简单的测试一下: a = torch.Tensor(5,3 ) a =a.cuda() print(a) 一般来讲,输出主要是报48号错误,也就是CUDA的问题,出现这个问题在于硬件的支持情况,对于算力3.0的显卡来说,如果安装了9.0的CUDA就会出现这个问题,解决的办法是退回CUDA8.0,或者更换更加高端的显卡,或者直接从源码编译,并在源码中做相应设置(修改setup.py文件里的TORCH_CUDA_ARCH_LIST,将这个值改成你当前使用的GPU对应算力!),对于最后一种方法,目前还没有尝试,不过,Pytorch确实做得不错,考虑的很周到~ 来源: oschina 链接: https://my.oschina.net/u/4274857/blog/3220297

解决cuda10.0 gcc versions later than 7 are not supported的方法

旧时模样 提交于 2020-04-05 19:16:56
操作方法: sudo apt-get install gcc-7 g++-7 sudo mkdir /usr/local/gcc7 cd /usr/local/gcc7 ln -sf /usr/bin/gcc-7 cc ln -sf /usr/bin/gcc-7 gcc ln -sf /usr/bin/g++-7 g++ ln -sf /usr/bin/cpp-7 cpp ln -sf /usr/lib/gcc/x86_64-linux-gnu/7/cc1 . ln -sf /usr/lib/gcc/x86_64-linux-gnu/7/cc1plus . export PATH=/usr/local/gcc7:$PATH 这样nvcc,查找gcc时就会先找gcc7,问题就解决了。 来源: oschina 链接: https://my.oschina.net/u/586849/blog/3216207

Keras下GPU/CPU模式切换

↘锁芯ラ 提交于 2020-04-05 17:46:55
1 确保环境 确保已经正确安装了keras, tensorflow/theano, cuda 在MacOS下面安装CUDA请参考: mac osx/linux下如何将keras运行在GPU上 use cuda with macos Ubuntu下面安装CUDA请参考: 配置深度学习环境 的最后一步 2 切换gpu 来自官方的介绍 How do I use keras with gpu If you are running on the TensorFlow backend, your code will automatically run on GPU if any available GPU is detected. If you are running on the Theano backend, you can use one of the following methods: Method 1: use Theano flags. THEANO_FLAGS=device=gpu,floatX=float32 Python my_keras_script.py The name ‘gpu’ might have to be changed depending on your device’s identifier (e.g. gpu0, gpu1, etc). Method

CUDA编程入门

那年仲夏 提交于 2020-04-05 17:04:37
CUDA是一个并行计算框架.用于计算加速.是nvidia家的产品.广泛地应用于现在的深度学习加速.   一句话描述就是:cuda帮助我们把运算从cpu放到gpu上做,gpu多线程同时处理运算,达到加速效果. 从一个简单例子说起: #include <iostream> #include <math.h> // function to add the elements of two arrays void add(int n, float *x, float *y) { for (int i = 0; i < n; i++) y[i] = x[i] + y[i]; } int main(void) { int N = 1<<20; // 1M elements float *x = new float[N]; float *y = new float[N]; // initialize x and y arrays on the host for (int i = 0; i < N; i++) { x[i] = 1.0f; y[i] = 2.0f; } // Run kernel on 1M elements on the CPU add(N, x, y); // Check for errors (all values should be 3.0f) float maxError

win10+CUDA8.0+VS2013环境配置

感情迁移 提交于 2020-03-29 06:27:47
下载安装: 1.vs2013 下载网址: https://www.visualstudio.com/zh-cn/downloads/download-visual-studio-vs.aspx 2.cuda 下载地址: https://developer.nvidia.com/cuda-downloads/ 下载完之后进行安装,安装时间有点长,请耐心等待,默认是安装在c盘目录下,你也可以更改安装目录, 环境变量配置: cuda8.0安装完成之后在系统环境变量中自动配置了两个系统变量 CUDA_PATH:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0 CUDA_PATH_V8_0:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0 但是为了之后的vs2013的配置做准备我们需要在配置五个系统变量 CUDA_BIN_PATH:%CUDA_PATH%\bin CUDA_LIB_PATH:%CUDA_PATH%\lib\Win32 CUDA_SDK_BIN:%CUDA_SDK_PATH%\bin\Win64 CUDA_SDK_LIB:%CUDA_SDK_PATH%\common\lib\x64 CUDA_SDK_PATH:C:\ProgramData\NVIDIA

安装CUDA坑:CUDA driver version is insufficient for CUDA runtime version

只谈情不闲聊 提交于 2020-03-26 09:46:40
本地安装TensorFlow,运行报错,根据网上提示,这个是因为nvdia与cuda版本不兼容 我本地显卡是 GTX 750Ti,下载了NVIDIA-Linux-x86_64-430.64.run,禁用nouveau驱动。安装显卡驱动即可。 参考: https://blog.csdn.net/wangyjfrecky/article/details/84029668 https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html 来源: https://www.cnblogs.com/passedbylove/p/12572122.html