英伟达

Ubuntu16.04下安装NVIDIA显卡驱动

我们两清 提交于 2020-03-10 09:43:32
[frank] install success by this article. https://blog.csdn.net/yinwangde/article/details/89439648 Ubuntu16.04下安装NVIDIA显卡驱动 原创 yinwang95 最后发布于2019-04-21 21:34:17 阅读数 3611 收藏 展开 我的系统是ubuntu16.04 ,显卡是RTX2080Ti 01 前期工作 1.1 禁用nouveau ubuntu 16.04默认安装了第三方开源的驱动程序nouveau,安装nvidia显卡驱动首先需要禁用nouveau,不然会碰到冲突的问题,导致无法安装nvidia显卡驱动。指令如下 sudo gedit /etc/modprobe.d/blacklist.conf 打开文件,在最后添加如下两行: blacklist nouveau options nouveau modeset=0 1.2 更新系统修改 sudo update-initramfs -u ,输入指令后重启系统(一定要重启),确保到位。 1.3 验证nouveau是否已禁用 lsmod | grep nouveau 如果没有出现任何东西就是成功了。 02 下载驱动文件并指令安装 2.1 、在英伟达的官网上查找你自己电脑的显卡型号然后下载相应的驱动: https:/

计算机视觉初学笔记:环境搭建

天涯浪子 提交于 2020-03-09 05:01:34
前言 首先要理解一些概念:opencv opencl opengl openmp cuda 这里我们要opencv、opencl、openmp、cuda的环境配置 电脑配置:win10,显卡NVIDIA10.0,VS2019 1、opencv环境配置 1)网上下载opencv-4.2.0,在电脑上选好目录安装。比如我安装在 E:\Program\opencv\opencv 2)进行环境变量的配置,如我上面的目录对应在path中新建 E:\Program\opencv\opencv\build\x64\vc15\bin 3)当在vs上敲代码是需要用到 opencv相关的函数或者接口时,进行vs环境设置:   右键--属性,   C/C++ --附加包含目录 -- E:\Program\opencv\opencv\build\include E:\Program\opencv\opencv\build\include\opencv2   链接器--常规--附加库目录-- E:\Program\opencv\opencv\build\x64\vc15\lib   链接器--输入--附加依赖项-- opencv_**420d.lib (这里**写涉及到需要用的opencv的库) 2、opencl环境配置 1)下载 AMD-APP-SDK-v2.9-Windows-64,记下安装的位置

Ubuntu16.04安装NVIDA显卡驱动

风流意气都作罢 提交于 2020-03-08 21:35:54
本文档是以戴尔Precision 5820 Tower工作站,系统为Ubuntu16.04.6上为独立显卡GTX1060安装NVIDIA驱动。 1.在NVIDIA官网下载驱动: 2.下载好的驱动放在当前用户的/home目录下。本例中为dell用户下的家目录/home/dell 3.禁用nouveau驱动 修改blacklist.conf文件: sudo vi /etc/modprobe.d/blacklist.conf 在最后添加: blacklist nouveau options nouveau modeset = 0 按ESC,wq保存退出。 然后执行: sudo update-initramfs -u 重启后,执行: lsmod | grep nouveau 如果没有屏幕输出,说明禁用nouveau成功。 4.禁用-Window服务 按Ctrl+Alt+F1进入命令行界面,输入用户名,密码登录 执行以下命令关闭图形界面: sudo service lightdm stop 小提示:在命令行输入:sudo service lightdm start,然后按Ctrl+Alt+F7即可恢复到图形界面。 5.命令行界面安装驱动: 给NVIDIA驱动文件赋予执行权限: sudo chmod +x NVIDIA-Linux-x86_64-418.56.run 执行安装: sudo ./

NLP:win10+pycharm+tensorflow-gpu+bert吐血整理

不羁岁月 提交于 2020-03-08 20:32:54
从几天前说起,开始学习使用bert,首先这里有两种,一种是google开源的原版的bert,一种是pytorch版的,这里主要介绍原版的bert,原版的提供了更大的控制性,如果想省事可以直接用第二种。 一,python要求 这里需要注意的是tensorflow-gpu目前只支持 2.7,3.3-3.6 ,如果你的python版本不对,自行重装(或者使用下面的虚拟环境)。 二,安装Anaconda3+tensorflow-gpu 安装这东西,自行随意,我安装是为了 更快的安装tensorflow-gpu 。 pip install的话是从外网安装,速度慢不说,更容易挂掉,所以用这个,安装过程自行百度。 一,创建一个自定义环境python版本(版本限制如上) 打开 Anaconda Prompt ,位置在开始的Anaconda文件夹下。 conda create -n learn python=3.6 learn:环境名字,自定义 python=3.6:python版本号 二,安装tensorflow-gpu 这里还要提醒,最新版的bert需要 tensorflow-gpu>1.10.0 ,否则会报如下错误 AttributeError: module 'tensorflow.contrib.tpu' has no attribute 'InputPipelineConfig'

2020-03-06

一笑奈何 提交于 2020-03-06 18:50:10
计算机上点右键,打开属性->高级系统设置->环境变量,可以看到系统中多了CUDA_PATH和CUDA_PATH_V10_1两个环境变量,接下来,还要在系统中添加以下几个环境变量: CUDA_SDK_PATH = C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.1CUDA_LIB_PATH = %CUDA_PATH%\lib\x64CUDA_BIN_PATH = %CUDA_PATH%\binCUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib\x64在系统变量 PATH 的末尾添加:%CUDA_LIB_PATH%;%CUDA_BIN_PATH%;%CUDA_SDK_LIB_PATH%;%CUDA_SDK_BIN_PATH%;再添加如下4条(默认安装路径):C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\lib\x64;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\bin;C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10

使用GPU进行深度学习过程中的坑

我怕爱的太早我们不能终老 提交于 2020-03-06 12:50:32
1、DeepFaceLab:NVML Shared Library Not Found 解决办法 出现这个提示的原因是安装后的Nvidia显卡目录C:\Program Files\NVIDIA Corporation\NVSMI不存在,造成的,解决办法如链接所示。 https://www.cnblogs.com/LesBlog/p/11219781.html 2、显卡驱动cuda不匹配 查看显卡支持的CUDA版本 https://blog.csdn.net/wangyjfrecky/article/details/55100963?depth_1-utm_source=distribute.pc_relevant_right.none-task&utm_source=distribute.pc_relevant_right.none-task CUDA与相对应的Cudnn对应关系 http://www.manongjc.com/article/101071.html 3、nvcc和nvidia-smi显示的CUDA版本不同? 链接失效,找到了再填上 4、code: 8, reason: CUDNN_STATUS_EXECUTION_FAILED报错 cuda与cudnn版本之间不匹配 目前cuda版本cuda_10.0.130_411.31_win10 cudnn版本是cudnn

选择GPU服务器的五大基本原则

泪湿孤枕 提交于 2020-03-06 00:14:01
本文根据智东西公开课推出的超级公开课NVIDIA专场第13讲《案例解读:不同行业如何选择深度学习服务器》上的系统讲解整理而来,由NVIDIA NPN合作伙伴负责人吴强、NVIDIA 高级系统架构师易成共同主讲。 本次讲解中NVIDIA NPN合作伙伴负责人吴强从性能、可编程性、灵活性等方面对CPU、GPU、FPGA、ASIC等不同类型的服务器进行了系统的比较分析,并给出了五条选择GPU服务器的基本原则: 1.考虑业务应用先选择GPU型号 2.考虑服务器的使用场景及数量(边缘/中心) 3.考虑客户自身的目标使用人群及IT运维能力 4.考虑服务器配套软件的价值以及服务的价值 5.考虑整体GPU集群系统的成熟度及工程效率 NVIDIA 高级系统架构师易成则从计算性能、互联互通、可扩展性、适用场景等方面系统讲解了DGX-1、DGX-2、DGX Station以及如何利用VNIDIA NGC高效的使用DGX系统。 吴强: 大家好,我是吴强,也是NVIDIA NPN(NVIDIA PARTNER NETWORK)合作伙伴负责人,主要负责帮助销售以及与合作伙伴的管理。今天分享的主题为《不同行业如何选择深度学习服务器》,主要从以下几个方面来进行: 1.不同类型AI服务器之比较分析 2.选择GPU服务器的基本原则 3.AI超级计算机DGX系统详解 4.NGC云平台使用方法和价值 5

nvidia-docker操作命令

天涯浪子 提交于 2020-03-05 11:31:39
# nvidia-docker安装部署以及操作手册 前言 docker和nvidia-docker的区别 由于我们深度学习需要用到GPU,使用docker时,需要映射设备等等,docker容器对宿主机的依赖就会很多也就失去了便捷,并不能让我们很舒服的迁移环境,nvidia-docker则很好的封装了这些,只需要容器内的cuda版本和宿主机相同就行(这个要求很低了,而且这个要求现在也基本可以通过docker hub上别人做好的带有各种cuda版本的镜像来满足,所以几乎无要求) 其实nvidia-docker只是run 和 exec命令和docker执行不同,其余的和docker执行的一模一样 ## 1.卸载 nvidia-docker 1.0 及其他GPU容器 ``` $ docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f $ sudo apt-get purge -y nvidia-docker ``` ## 2. 添加package repositories ``` $curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | \

NVIDIA-SMI系列命令总结

风格不统一 提交于 2020-03-04 05:21:25
转载自: https://blog.csdn.net/handsome_bear/article/details/80903477 文章目录 1 NVIDIA-SMI介绍 2 NVIDIA-SMI命令系列详解 2.1 nvidia-smi 2.2 nvidia-smi -q 2.3 设备修改选项 2.4 nvidia-smi dmon 2.5 nvidia-smi pmon 2.6 [nvidia-smi实时刷新并高亮显示状态](https://www.cnblogs.com/haiyang21/p/7725469.html) 1 NVIDIA-SMI介绍 nvidia-smi 简称 NVSMI,提供监控GPU使用情况和更改GPU状态的功能,是一个跨平台工具,它支持所有标准的NVIDIA驱动程序支持的Linux发行版以及从WindowsServer 2008 R2开始的64位的系统。该工具是N卡驱动附带的,只要安装好驱动后就会有它。 Windows下程序位置:C:\Program Files\NVIDIACorporation\NVSMI\nvidia-smi.exe。 Linux下程序位置:/usr/bin/nvidia-smi,由于所在位置已经加入PATH路径,可直接输入nvidia-smi运行。 2 NVIDIA-SMI命令系列详解 2.1 nvidia-smi

my_pc & Lab_pc

牧云@^-^@ 提交于 2020-03-03 15:10:16
首先明确cudnn就是cuda的一个补丁 0. 查看cuda版本 nvcc -V ubuntu下查看cuda版本和cudnn版本 cat / usr / local / cuda / version . txt cat / usr / local / cuda / include / cudnn . h | grep CUDNN_MAJOR - A 2 验证cudnn是否安装成功 cd /usr/local/cuda-10.1/samples/1_Utilities/deviceQuery sudo make ./deviceQuery 1. win10查看cudnn版本 ( env_torch ) C : \Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10 . 0 \include > ` type cudnn . h | findstr CUDNN_MAJOR` #define CUDNN_MAJOR 7` #define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL) cudnn-10.0-windows10-x64-v7.6.5.32 下载地址 https://developer.nvidia.com/rdp/cudnn