cuda

deepin15.5 安装tensorflow-gpu

孤者浪人 提交于 2020-11-27 02:40:40
deepin的CUDA和cuDNN安装方法与其它系统有所不同,参考其它操作系统的方法也许不适用,特别是显卡驱动的安装,容易使系统出现问题 本次配置: 操作系统 :deepin15.5桌面版 电脑品牌 :联想拯救者 CPU :i5-7300HQ 显卡 :NVIDIA GTX 1050Ti tensorflow版本 :1.4 cuda版本 :8.0 cudnn版本 :6 目录: 安装显卡驱动 安装CUDA 安装tensorflow-GPU 安装CUDNN 一、安装显卡驱动 deepin15.5的显卡驱动可以使用bumblebee工具,此处不需要手动禁用nouveau,因为安装完成之后会自动禁用 安装驱动命令: sudo apt-get install bumblebee bumblebee-nvidia nvidia-smi 安装完之后,在命令行输入: optirun nvidia-smi 输出: 上图表明安装已经成功。 驱动使用方法: 在进行训练前,在终端输入 sudo tee /proc/acpi/bbswitch <<< ON ,可开启显卡。 在训练结束后,在终端输入 sudo tee /proc/acpi/bbswitch <<< OFF ,可关闭显卡。 二、安装CUDA 网上很多教程都不适用于我的系统,下载安装包来安装也会报错,所以这里采用命令行安装的方法: sudo apt

Can 1 CUDA-core to process more than 1 float-point-instruction per clock (Maxwell)?

橙三吉。 提交于 2020-11-27 02:00:23
问题 List of Nvidia GPU - GeForce 900 Series - there is written that: 4 Single precision performance is calculated as 2 times the number of shaders multiplied by the base core clock speed. I.e. for example for GeForce GTX 970 we can calculate performance: 1664 Cores * 1050 MHz * 2 = 3 494 GFlops peak (3 494 400 MFlops) This value we can see in column - Processing Power (peak) GFLOPS - Single Precision. But why we must multiple by 2 ? There is written: http://devblogs.nvidia.com/parallelforall

Can 1 CUDA-core to process more than 1 float-point-instruction per clock (Maxwell)?

南笙酒味 提交于 2020-11-27 01:55:35
问题 List of Nvidia GPU - GeForce 900 Series - there is written that: 4 Single precision performance is calculated as 2 times the number of shaders multiplied by the base core clock speed. I.e. for example for GeForce GTX 970 we can calculate performance: 1664 Cores * 1050 MHz * 2 = 3 494 GFlops peak (3 494 400 MFlops) This value we can see in column - Processing Power (peak) GFLOPS - Single Precision. But why we must multiple by 2 ? There is written: http://devblogs.nvidia.com/parallelforall

Can 1 CUDA-core to process more than 1 float-point-instruction per clock (Maxwell)?

柔情痞子 提交于 2020-11-27 01:55:05
问题 List of Nvidia GPU - GeForce 900 Series - there is written that: 4 Single precision performance is calculated as 2 times the number of shaders multiplied by the base core clock speed. I.e. for example for GeForce GTX 970 we can calculate performance: 1664 Cores * 1050 MHz * 2 = 3 494 GFlops peak (3 494 400 MFlops) This value we can see in column - Processing Power (peak) GFLOPS - Single Precision. But why we must multiple by 2 ? There is written: http://devblogs.nvidia.com/parallelforall

【深度学习】安装TensorFlow-GPU

不问归期 提交于 2020-11-26 06:14:31
1、Windows版 准备 干净的系统,没有安装过Python,有的话就卸载了。 另外我的系统安装了VS2015 VS2017(这里我不知道是不是必备的)。 现在TensorFlow和cuda以及cuDNN品名升级,所以这里采用了几乎是最新版的了(2018年11月19日) Anaconda—— 清华tuna下载 显卡驱动—— 点我去英伟达官网自行下载对应驱动 cuda9.0安装包—— 点我去百度云下载 cuDNN7.x安装包—— 点我去百度云下载 安装 1、安装Anaconda 这里省略。注意一点,安装的选项加入path,都勾选。 2、安装显卡驱动 默认安装。 3、安装cuda9.0 默认安装。 4、安装cuDNN 7.x 将压缩包解压,放在C:\ProgramData\NVIDIA GPU Computing Toolkit\v9.0这个目录下。 然后将目录C:\ProgramData\NVIDIA GPU Computing Toolkit\v9.0\bin添加到环境变量PATH里。 验证 1、启动Anaconda Prompt 输入 1 conda env list 显示只有一个base或者root的环境。表示只有一个环境。 2、修改Anaconda的软件源 执行 1 conda config --add channels https://mirrors.tuna

Does CUDA C++ math function of exp have override functions by default?

你说的曾经没有我的故事 提交于 2020-11-24 20:06:06
问题 The problem comes from the document where I find two function exp and expf . It is said that exp means double exp(double) and expf means float expf(float) . I wonder if exp can have default override version such as float exp(float) or fp16 exp(fp16) . Or must I use different functions when the input are different types ? Consider a scenario where I use template: template <typename T> T compute (T in) {return exp(in);} If there is no default float exp(float) , I cannot use compute<float>(1.f)

Does CUDA C++ math function of exp have override functions by default?

依然范特西╮ 提交于 2020-11-24 20:05:58
问题 The problem comes from the document where I find two function exp and expf . It is said that exp means double exp(double) and expf means float expf(float) . I wonder if exp can have default override version such as float exp(float) or fp16 exp(fp16) . Or must I use different functions when the input are different types ? Consider a scenario where I use template: template <typename T> T compute (T in) {return exp(in);} If there is no default float exp(float) , I cannot use compute<float>(1.f)

Tensorflow-gpu版本安装

强颜欢笑 提交于 2020-11-24 15:04:52
[toc] 最近给公司部署一套深度学习相关的环境,以tensorflow为框架。简单整理下整个的部署过程。 tensorflow官方网站: https://www.tensorflow.org 服务器选型 我们的tensorflow是基于gpu的版本,使用的是tensorflow-gpu 1.12.0版本。既然是gpu的版本,那么首先得需要一个带有gpu的服务器。我们这里直接使用阿里云服务器,型号如下: NVIDIA GPU驱动安装 那么既然有了带gpu的服务器,gpu驱动就必然是一个绕不开的话题。通过上面的选型我们可以知道,阿里云的购买页面明确给出了gpu的型号,我们需要去到gpu官方网站,根据型号选择驱动。 通过如下页面查找相应的GPU驱动: https://www.nvidia.com/Download/index.aspx?lang=en-us 下载的驱动名称示例: NVIDIA-Linux-x86_64-410.104.run 安装的话相对比较简单: # 通过shell运行,然后按照提示操作即可 sh NVIDIA-Linux-x86_64-410.104.run 验证是否正常安装了: [root@ctnr ~]# nvidia-smi Tue Mar 26 11:31:34 2019 +------------------------------------------

PCL点云库(Point Cloud Library)简介

蓝咒 提交于 2020-11-24 02:37:23
什么是PCL PCL(Point Cloud Library)是在吸收了前人点云相关研究基础上建立起来的大型跨平台开源C++编程库,它实现了大量点云相关的通用算法和高效数据结构,涉及到点云获取、滤波、分割、配准、检索、特征提取、识别、追踪、曲面重建、可视化等。支持多种操作系统平台,可在Windows、Linux、Android、Mac OS X、部分嵌入式实时系统上运行。如果说OpenCV是2D信息获取与处理的结晶,那么PCL就在3D信息获取与处理上具有同等地位,PCL是BSD授权方式,可以免费进行商业和学术应用。 PCL的发展与创景 PCL起初是ROS(Robot Operating System)下由来自于慕尼黑大学(TUM - Technische Universität München)和斯坦福大学(Stanford University)Radu博士等人维护和开发的开源项目,主要应用于机器人研究应用领域,随着各个算法模块的积累,于2011年独立出来,正式与全球3D信息获取、处理的同行一起,组建了强大的开发维护团队,以多所知名大学、研究所和相关硬件、软件公司为主,可参考图1。截止目前,发展非常迅速,不断有新的研究机构等加入,在Willow Garage, NVidia, Google (GSOC 2011), Toyota, Trimble, Urban Robotics,

【CUDA 基础】0.0 腾讯云CUDA环境搭建

旧巷老猫 提交于 2020-11-23 18:09:37
Abstract: 本文主要为不支持CUDA的电脑用户提供一个可供选择的CUDA学习环境 Keywords: 腾讯云 ,CUDA,GPU云 开篇废话 今天我们开始学习CUDA,又到了一年一次的,逼婚,催生,问工资,问成绩,炫富,炫孩子,炫工作的节日了。我还是想找个地方安安静静的看看书,身在世俗,岂能不染。 Macbook 我没有意思想要炫耀macbook(前几年确实是高端货),这玩意去星巴克,一桌子都是,但那里用来写程序的不多,最近几年Mac在中国普及度非常高,以前见不到几个,现在真的是到处都是,对于开发者,大部分用来开发IOS应用,也有小部分用于开发其他,我对Macbook有着更多的恩怨情仇,这里就不说了。 我为什么选择Macbook? 我的第一个mac里是有NVIDIA显卡的,为了这个mac我算是搭上了身家性命了,用mac研究了《三十天自制操作系统》,刚萨雷斯的数字图像处理,写了一百多篇CSDN博客(虽然质量不太高),当时坚持要买带显卡的,就为了学习cuda,然而,我已经换了第二台macbook了,这才刚刚开始深入研究CUDA,Macbook用久了真的感觉效率很高,linux桌面版说实话,我感觉稳定性并没有网上宣传的那么高(网上多半是说服务器版本的)桌面版本的谁用谁知道,天天给我弹出内核错误的消息,而macbook基本没啥问题,内核又是类unix,所以所有工具和linux很相似