英伟达

NVIDIA新旗舰GeForce GTX 780深度评测

一曲冷凌霜 提交于 2020-04-06 21:14:27
2013年5月18日,NVIDIA在2013年游戏群英会上出人意料地以不公开产品型号的方式向大众展示了一款神秘显卡。尽管只是惊鸿一瞥,但是大家都相信这就是即将到来的GeForce GTX 780显卡。果不其然,在稍后的5月24日,NVIDIA正式发布了这款产品。GeForce GTX 780,NVIDIA新一代GTX 700系列的单核心旗舰显卡,其性能究竟如何呢? GTX 780规格解读 或许NVIDIA认为GTX 780性能已经很出色,对保密不甚上心,因此其规格早在发布之前就已经被爆料得差不多了。本刊也早在4月下《GeForce GTX 780? GK110神秘显卡抢先曝光》一文中曝光了该显卡。 下面,我们来看看GTX 780的详细规格。它和GTX Titan一样,都使用了基于“big Kepler”的GK110核心,这颗核心在本刊3月下评测GTX Titan的时候已经有详细介绍。完整版GK110的晶体管数量有71亿个,具备15组SMX、2880个CUDA core、384bit显存位宽、48个ROP单元。不过GT X Titan屏蔽了一组SMX,因此只有2688个CUDA Core。 GTX 780则屏蔽了三组SMX,具备12组SMX,流处理器数量降低到了2304个—这也是目前看到的第4款采用GK110核心的产品。之前已经分别有GTX Titan和针对行业用户的Tesla

window10上安装python+CUDA+CuDNN+TensorFlow

纵饮孤独 提交于 2020-04-06 08:53:09
确认显卡支持 cuda 首先确认显卡是否是 英伟达 NVIDIA 的,当然 AMD 也支持,但是不常用; NVIDIA 显卡有 GTX Geforce、Quadra 和 Tesla 三大系列,然后到如下网站查看是否支持 Cuda https://developer.nvidia.com/cuda-gpus 点击如下链接即可查看每个系列支持 cuda 的显卡版本 安装显卡驱动 在安装CUDA过程中,你可能各种尝试,把显卡驱动整坏了,可以重新安装;    【我就是这样,然后死活装不上 cuda,后来重装驱动,搞定】 在 https://www.nvidia.cn/Download/index.aspx?lang=cn 获取自己显卡的最新驱动版本; 下载,双击安装; 安装 cuda 驱动 访问CUDA的下载网站: https://developer.nvidia.com/cuda-toolkit ,可以看到CUDA目前的最新版本,可以通过选择下面的“Legacy Releases”链接来下载旧版本的驱动; 建议选择自定义安装,然后只勾选cuda,建议安装在默认文件路径; 把 安装路径下的 bin 目录设为 环境变量 :C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin 安装 cudnn 库 CuDNN库(The

ubuntu18.04在线安装docker、nvidia-docker2与docker-compos

送分小仙女□ 提交于 2020-03-31 16:07:53
说明 由于项目测试需要,须安装如下版本的docker组建: Docker:18.09.6 nvidia-docker2:18.09.6 部署 Docker 主要步骤如下: (1)安装基础包 apt-get install -y apt-transport-https ca-certificates curl software-properties-common (2)添加 apt-key curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add (3)添加阿里云仓库 add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable" (4)查看当前库对应的 docker 可用的版本 apt-cache madison docker-ce (5)安装 Docker:18.09.6 apt-get install -y docker-ce=5:18.09.6~3-0~ubuntu-bionic docker-ce-cli=5:18.09.6~3-0~ubuntu-bionic (6)查看 docker 版本 docker

如何挑选深度学习 GPU?

无人久伴 提交于 2020-03-29 21:12:50
如何挑选深度学习 GPU? 深度学习是一个对计算有着大量需求的领域,从一定程度上来说,GPU的选择将从根本上决定深度学习的体验。因此,选择购买合适的GPU是一项非常重要的决策。那么2020年,如何选择合适的GPU呢?这篇文章整合了网络上现有的GPU选择标准和评测信息,希望能作为你的购买决策的参考。 1 是什么使一个GPU比另一个GPU更快? 有一些可靠的性能指标可以作为人们的经验判断。以下是针对不同深度学习架构的一些优先准则: Convolutional networks and Transformers: Tensor Cores > FLOPs > Memory Bandwidth > 16-bit capability Recurrent networks: Memory Bandwidth > 16-bit capability > Tensor Cores > FLOPs 2 如何选择NVIDIA/AMD/Google NVIDIA的标准库使在CUDA中建立第一个深度学习库变得非常容易。早期的优势加上NVIDIA强大的社区支持意味着如果使用NVIDIA GPU,则在出现问题时可以轻松得到支持。但是NVIDIA现在政策使得只有Tesla GPU能在数据中心使用CUDA,而GTX或RTX则不允许,而Tesla与GTX和RTX相比并没有真正的优势,价格却高达10倍。

win10+CUDA8.0+VS2013环境配置

感情迁移 提交于 2020-03-29 06:27:47
下载安装: 1.vs2013 下载网址: https://www.visualstudio.com/zh-cn/downloads/download-visual-studio-vs.aspx 2.cuda 下载地址: https://developer.nvidia.com/cuda-downloads/ 下载完之后进行安装,安装时间有点长,请耐心等待,默认是安装在c盘目录下,你也可以更改安装目录, 环境变量配置: cuda8.0安装完成之后在系统环境变量中自动配置了两个系统变量 CUDA_PATH:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0 CUDA_PATH_V8_0:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0 但是为了之后的vs2013的配置做准备我们需要在配置五个系统变量 CUDA_BIN_PATH:%CUDA_PATH%\bin CUDA_LIB_PATH:%CUDA_PATH%\lib\Win32 CUDA_SDK_BIN:%CUDA_SDK_PATH%\bin\Win64 CUDA_SDK_LIB:%CUDA_SDK_PATH%\common\lib\x64 CUDA_SDK_PATH:C:\ProgramData\NVIDIA

Ubuntu Nvidia docker 安装常见问题

回眸只為那壹抹淺笑 提交于 2020-03-26 17:41:38
3 月,跳不动了?>>> 一、APT证书验证问题 Acquire::https::nvidia.github.io::Verify-Peer "false"; 将以上内容添加到/etc/apt/apt.conf文件中即可; 二、apt install nvidia-docker2超时问题 采用离线方式安装。 三、docker runtime配置 { "runtimes" : { "nvidia" : { "path" : "nvidia-container-runtime" , "runtimeArgs" : [] } }, "default-runtime" : "nvidia" , ... } 四、docker run --runtime=nvidia找不到runtime 重启docker服务即可解决 systemctl restart docker 来源: oschina 链接: https://my.oschina.net/u/242695/blog/3211994

nvidia-docker+cuda8.0+ubuntu16.04

 ̄綄美尐妖づ 提交于 2020-03-21 22:34:08
nvidia-docker安装 如果之前安装过docker1.0版本,需要先删掉该版本和之前创建的容器 docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f sudo apt-get purge -y nvidia-docker 添加代码仓库 curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \ sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \ sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update 安装docker 2 sudo apt-get install -y nvidia-docker2 sudo pkill -SIGHUP dockerd   拉取镜像 sudo nvidia

【linux】安装cuda+cudnn

风流意气都作罢 提交于 2020-03-17 09:18:09
检查Driver Note: 一台机器只能对应一个nvidia driver,而一个nvidia driver可以对应多个cuda。只要在自己的路径下把cuda指定成特定版本就行。 尽量不要使用/usr/local/下面的默认cuda/,防止因为ln对象会发生变化而造成影响。 nvidia driver版本 决定了 可用的cuda范围, 进而决定了 可用的tensorflow-gpu版本。所以,每次上一台新机器前,首先确定nvidia driver版本。 查看nvidia driver版本: cat /proc/driver/nvidia/version Table 1. CUDA Toolkit and Compatible Driver Versions : 安装Cuda 查看本机操作系统: cat /etc/issue 前往英伟达官网,下载对应的cuda版本: Note: 以下以cuda9.0为例。 安装cuda: sudo sh cuda_9.0.176_384.81_linux.run Note: 勿装driver!否则会安装失败! 写入对应路径: vim ~/.bashrc export PATH = /usr/local/cuda-9.0/bin: $PATH export LD_LIBRARY_PATH = /usr/local/cuda-9.0/lib64:

Mask_RCNN入门(三)—— 使用gpu进行训练和测试

匆匆过客 提交于 2020-03-16 15:26:02
cpu换成gpu 之前的工作: Mask_RCNN入门(一)—— 跑通代码 Mask_RCNN入门(二)—— 训练自己的数据集 其实是在CPU上跑的,这一点可以在requirements.txt中可以看到: tensorflow就是CPU版,GPU版本是tensorflow-gpu。 所以第一步是卸载tensorflow,安装tensorflow-gpu,为了避免兼容性冲突,tensorflow-gpu同样使用1.6.0版本。 卸载tensorflow: python -m pip uninstall tensorflow 安装tensorflow-gpu: python -m pip install tensorflow-gpu==1.6.0 driver,CUDA,cuDNN和tensorflow-gpu 安装完tensorflow-gpu之后,如果直接运行demo.py或者train.py会报错: ImportError: Could not find 'cudart64_90.dll’ 其实信息明确了,到指定网址下载安装CUDA 9.0。 这里开一下上帝视角:CUDA,包括后面同样会报错需要下载的cuDNN,它们是什么,还有和CUDA版本紧密相关的显卡驱动又是什么? driver 这个最好理解,这个和键盘驱动,鼠标驱动,打印机驱动等等没本质区别,计算机(确切地说是CPU

为电脑配置GPU加速(win10+python3.6+tensorflow-gpu1.12.0)

穿精又带淫゛_ 提交于 2020-03-12 11:28:47
本教程基于win10系统,所用到的工具为Anaconda3,PyCharm 你需要已经安装好以上工具,具体操作略。 首先确定你的显卡是否支持gpu加速,可在 nvidia官网 查看是否有你的显卡所对应的算力,如图。 为了不影响其他的工作环境,本教程创建anaconda虚拟python环境,打开Anaconda Prompt,输入指令 conda create - n your_env_name python==3 . 6 待安装完成后,输入指令 conda env list conda会罗列出所有你所创建的环境,如图 输入如下指令,进入conda虚拟python环境,接下来的所有操作都在此虚拟环境下进行 activate your_env_name 如图进入python虚拟环境 安装tensorflow-gpu 接下来输入如下指令安装tensorflow-gpu pip install tensorflow - gpu 如需安装指定版本(例如1.12.0)键入 pip install tensorflow - gpu==1 . 12 . 0 安装过程会安装tensorflow-gpu及其依赖包,耗时略长,建议更换国内源,例如中科大、清华、豆瓣等 (tensorflow还有离线安装方式,本教程略) 待安装完成后并不能正常运行,会报错DLL缺少模块