显卡

【FAQ】P3. 为什么 torch.cuda.is_available() 是 False

妖精的绣舞 提交于 2019-12-04 01:40:37
为什么 torch.cuda.is_available() 是 False torch.cuda.is_available() ,这个指令的作用是看,你电脑的 GPU 能否被 PyTorch 调用。 如果返回的结果是 False,可以按照以下过程进行排查。 1、确认你的 GPU,是否支持 CUDA(是否支持被 PyTorch 调用) 首先,确定你的显卡型号,是否是 NVIDIA 显卡。可以从 任务管理器 或者 设备管理器来查看显卡的型号。 之后,去 官网 看,如果其中有你的显卡型号,则说明你的显卡是支持被 PyTorch 调用的。 (绝大多数的 NVIDIA 显卡都是支持的) 如果没有 NVIDIA 显卡的话,也没有关系。CPU 就已经足够了,而且你会在后面的教程看到,对于小型网络,CPU 速度更快(窃喜) 2、打开命令行,输入 nvidia-smi ,查看自己的 Driver Version 我们教程中安装的 PyTorch 1.3 + CUDA 9.2 版本,要求电脑的显卡驱动大于396.26。 像我截图中的驱动版本为430.86,大于396.26。 如果你的驱动版本小于396.26,请用各种驱动管理软件或者软件管家,去升级你的显卡驱动。当然,更推荐去官网,下载对应的最新驱动。 3、下载最新驱动。在 官方网站 选择相应的显卡型号,操作系统,其他默认。其中的 Notebooks

计算机硬件-显卡

别等时光非礼了梦想. 提交于 2019-12-04 00:05:14
计算机硬件-显卡 阅读量: 160 显卡介绍 显卡选购 显卡介绍 显卡是计算机中最重要的图像输出设备,是将计算机系统所需要的显示信息进行转换驱动显示器,并向显示器提供逐行或隔行扫描信号,控制显示器的正确显示,是连接显示器和个人计算机主板的重要组件,是“人机对话”的重要设备之一。 显卡按照接口分类 ISA PCI AGP PCI-E 显卡选购 显卡参考指标:显存 位宽 频率 来源: https://www.cnblogs.com/fengpiaoluoye/p/11824595.html

ETH挖矿

╄→尐↘猪︶ㄣ 提交于 2019-12-03 14:36:45
转载声明:http://www.120btc.com/baike/coin/1021.html (仅为了方便自己及原文章被删除) 最近以太坊大涨市值成为仅次比特币的第二大数字货币,那么以太坊(ETH)怎么挖矿呢?看看下面教程吧 以太坊(以太币,Ethereum,货币代号ETH) 是一个基于P2P数字加密算法的去中心化可编程平台,包含数字货币和智能合约等特色功能,截止目前现存总量约88243984枚。 以太经典 (Ethereum Classic,货币代号ETC) 是以太坊针对DAO资金问题进行硬分叉后未尊从或未升级的以太坊区块分支,保留了原有以太坊的代码规则和特色,截止目前现存总量约88206855枚。 目前两者均采用Ethash算法,挖矿方法都一样。该算法采用CPU挖矿效率非常低,目前以AMD和NVIDI显卡挖矿为主,下面以AMD为例进行挖矿。 挖矿过程只需两步。 第一步是配置挖矿系统和安装显卡驱动,挖矿系统以win7,win8,win10的64位系统为主,安装显卡驱动程序,Radeon R9 4XX系列显卡安装最新显卡驱动(下载地址:http://support.amd.com/zh-cn/download)。Radeon R9 4xx之前的显卡系列安装15.12版本驱动(下载地址:http://news.mydrivers.com/1/462/462099.htm)。

Manjaro 显卡驱动安装

…衆ロ難τιáo~ 提交于 2019-12-03 05:37:59
Manjaro 显卡驱动安装 我在安装显卡驱动的时候,搞得真的不像样了,完全没有什么心情,但是最近还是找到了几篇比较好的,起码,我的电脑在安装之后,能够驱动显卡了。这是比较好的地方。 方法一: $sudo pacman -S bumblebee bbswitch 这个是安装驱动bbswitch程序 $sudo gpasswd -a $USER bumblebee 安装完成之后,把你的用户名添加到bumblebee组中,使得组能够识别你 $sudo systemctl enable bumblebeed.service 这个是启动bumblebeed服务 $sudo pacman -S bumblebee nvidia opencl-nvidia lib32-nvidia-utils lib32-opencl-nvidia mesa lib32-mesa-libgl xf86-video-intel 这是解决依赖源的问题 然后修改文件 $sudo vim /etc/bumblebee/bumblebee.conf ,修改以下内容: Driver=nvidia && [driver-nvidia] PMMethod=bbswitch 这是把原本的驱动换为bbswitch,指定电源管理。 然后重启系统 $reboot 重启系统后,输入指令 $sudo tee /proc/acpi

图像处理显卡选择

穿精又带淫゛_ 提交于 2019-12-03 04:32:22
最近公司上人工智能相关的图像识别项目,涉及到服务器算力估算,显卡选型问题,目前主流还是英伟达,下面就选取了官方图片能力说明,按此标准和预算来选择显卡 来源: https://www.cnblogs.com/mlwork/p/11777455.html

Caffe与NVIDIA Docker不兼容的问题

匿名 (未验证) 提交于 2019-12-03 00:37:01
文章作者:Tyan 博客: noahsnail.com CSDN 简书 今天在使用Dockerfile构建Caffe Docker Image时碰到了一个Caffe与NVIDIA Docker不兼容的问题,我使用的NVIDIA Docker为 FROM nvidia/cuda:9.0-cudnn7-devel-ubuntu16.04 ,出现的错误为: nvcc fatal : Unsupported gpu architecture 'compute_20 ' 解决方案: # 在Dockerfile中添加 ENV CUD A_ARCH _BIN "35 52 60 61 70" ENV CUD A_ARCH _PTX "52 70" # 在CMake时添加参数 -DCUD A_ARCH _NAME=Manual -DCUD A_ARCH _BIN=${CUD A_ARCH _BIN} -DCUD A_ARCH _PTX=${CUD A_ARCH _PTX} 注意: 35 52 60 61 70 是CUDA显卡的计算能力。 CUDA_ARCH_BIN 参数指定的是显卡的计算能力, CUDA_ARCH_PTX 是PTX代码生成的对应库文件,与显卡计算能力对应。 CUDA_ARCH_PTX 必须包含你的显卡,否则会报错。错误如下: Check failed: error ==

DIY组装自己的深度学习主机

匿名 (未验证) 提交于 2019-12-03 00:34:01
其实想写自己的博客很久了,但一直没有动手开始写,今天是2018年6月24日,准备邯郸学步,开启自己的博客园博客之旅。 因为在公司有接触深度学习这一块,然而因为没有一台自己的深度学习主机,不能放开手脚来学习。所谓工欲善其事必先利其器,故筹划组装一台自己的深度学习主机。 以下是自己的组机过程:因为想装机,第一时间想到的是在京东上搜索“深度学习主机”,结果跳出来的是云轩的服务器,看了一下上面的配置,询问了一下客服,准备购买,恰逢618前夕,在询问完之后就等了一等,准备618入手。因为自己不是很了解一台深度学习主机需要哪些配置,对CPU ,主板的要求是怎么样的,只知道需要一块较为高端的GPU (显卡)。因为显卡的选型很多,自己也不是很了解各类显卡的区别和性能差异,就询问了一下大学同学,他目前在大学深研深度学习这一块,在这里先称其为东哥。东哥推荐了知乎上的一篇《如何配置一台适用于深度学习的工作站》,于是在上面细细研究了一番,将上面的推荐的配置一一在中关村在线上比对了价格性能等各种参数。因为财力不够,预算一台深度学习主机在15000左右。就CPU 先后对比了一下i7 6800k i7 7800x i7 7820x i7 8700k;主板对比了一下华硕和微星的X99平台主板和X299平台主板。考虑到系统的稳定性,决定入手基于LGA2066插槽的主板。 经过各种对比后,组机选型如下: cpu :

深度学习硬件环境配置

匿名 (未验证) 提交于 2019-12-03 00:30:01
学习了很长时间的理论,很想做一些真实的项目,个人笔记本配置太低,决定自己装配一天可以运行深度学习项目的高配置电脑。记录下过程。希望给第一次装机的同学一些指导,少走弯路,当然我也是第一次装机。 所有零配件都在京东上购买,购买时勾选0.5元免费上门取件服务,这样退换货很方便。 配件清单: cpu:8700k, 主板:技嘉z370ug, 内存条:金士顿3000频16G*2(非套条), 显卡:技嘉1080Ti大雕, 固态硬盘:金士顿A400系列240G, 机械硬盘:希捷酷鱼系列2TB, 电源:长城巨龙700w, GW-800SE(90+) , cpu散热扇:酷冷至尊t400i(这款风扇是送的,查了查原价99,对于8700k,即使超频也完全够用,温度最高也就60多), 机箱:先马领秀标准版,全塔式机箱, 机箱风扇:12cm*7个。 零配件选择难点: (1)内存频率 cpu、内存条、主板这三者的频率需在一个范围内,8700k所支持的内存频率最高2666,也就是说内存频率高了也没用, 装机完成后,经测试(用鲁大师和cpu-z)是双通道,内存频率默认2400频,进入bios设置为3000频; (2)是否套条 很好奇为什么套条更贵一些,查了查说是套条可以组成双通道,而我买的的不是套条,也可以组成双通道。结论:没必要买更贵的套条,更重要的是注意:主板、cpu、内存条频率是否一致,以及主板是否支持双通道

使用GPUpassthrough方法发布带有GPU显卡的虚拟桌面

匿名 (未验证) 提交于 2019-12-03 00:29:01
Xenserver 5.6及以后的版本已经支持GPU passthrough功能,利用这一特性,我们可以发布带有GPU显卡的虚拟桌面。基于此,用户在虚拟桌面中亦可以进行3D绘图等工作。不过目前一个GPU显卡还只能分配给一个虚拟机。 安装前注意事项: 安装过程: 容易出现的问题: 分配好GPU显卡的虚拟机,会自动去适应物理显卡上所接的适配器,所以其分辨率与本机可能会不相符,此时只需在虚拟桌面中更改分辨率即可。 本次实验时,当我获取带有GPU显卡的虚拟桌面时,发现速度奇慢无比,将VCPU扩至两个时,没有做任何工作的情况下,CPU利用率还高达50%。后经查阅资料,发现了这个原因。 在HDX 3D Pro 模式下,xendesktop4.0至xendesktop5.6版本,默认情况下,深度的加密压缩是由CPU而不是GPU来执行的。要想改变这个情况,可以通过更改注册表来实现。更多详细情况可参见http://support.citrix.com/article/CTX133864 文章来源: 使用GPUpassthrough方法发布带有GPU显卡的虚拟桌面

TensorFlow笔记4:显卡使用

匿名 (未验证) 提交于 2019-12-03 00:25:02
tensorflow tensorflow可以指定训练使用的显卡。如果一台电脑具有多个NVIDIA的GPUs,用户想要指定需要使用的GPU,那么在python中可以写如下语句。这个语句设置了当前程序可见的显卡。 import os os .environ[ "CUDA_VISIBLE_DEVICES" ]= "0" 然后使用tf.device来指定训练的gpu ID。但是如果只指定ID,而没有屏蔽掉其他的显卡的话,TF依然会占用所有的显卡资源,但是只在当前显卡下运行。 tf.device( '/gpu:0' ) 比如 import tensorflow as tf with tf.device( '/gpu:1' ): v1 = tf.constant([ 1.0 , 2.0 , 3.0 ], shape=[ 3 ], name= 'v1' ) v2 = tf.constant([ 1.0 , 2.0 , 3.0 ], shape=[ 3 ], name= 'v2' ) sumV12 = v1 + v2 with tf.Session(config=tf.ConfigProto(log_device_placement= True )) as sess: print sess.run(sumV12) 此外,还可以指定多显卡同时工作 参考: https://blog.csdn.net