cuda

windows 下安装 theano 及配置 gpu

僤鯓⒐⒋嵵緔 提交于 2020-04-24 08:35:30
首次在windows上搭建 theano ,为了实现在 gpu 加速运算,在配置运行环境上多次踩坑,特记录下来。 一、GPU驱动安装 1.1 进入 NVIDIA驱动下载 进行符合条件的下载安装。 二、CUDA的下载安装 2.1 从NVIDIA 官网 选择一个CUDA版本进行下载。 2.2 使用如下命令查看是否安装成功:    nvcc -V 2.3 配置path环境 我安装的是 10.1 所以为:   C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\bin;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\libnvvp; 三、CUDNN的下载安装 3.1 这里是 下载地址 。根据自己安装的CUDA版本选择相应的CUDNN的版本。 3.2 我解压后放到目录 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1 目录下了。 四、Anacond安装 4.1 下载地址: https://www.anaconda.com/download/ 4.2 安装 anacond 4.3 系统 path 变量增加   C:\Anaconda3   C:\Anaconda3\Scripts   C:

CUDA out of memory in pytorch

被刻印的时光 ゝ 提交于 2020-04-24 02:37:13
with torch.no_grad(): CUDA out of memory in pytorch 今天尝试了一下Transformer,一直遇到当validate若干次之后爆显存,一开始以为参数过多,batch size过大,但是无济于事。谷歌了相关内容,发现原来是需要加 with torch.no_grad(): torch.cuda.empty_cache() 这些效果都不明显 来源: oschina 链接: https://my.oschina.net/u/4303818/blog/3434390

生成任务:语言的中外翻译,你应该知道的NLP生成任务

拥有回忆 提交于 2020-04-23 16:34:00
神经机器翻译 机器翻译的目标是将文本从一种语言自动翻译成另一种语言,给定一个待翻译的语言的文本序列, 不存在一个翻译是当前文本的最佳翻译。 这是因为人类语言天生的模糊性和灵活性.这使得自动机器翻译这一挑战变得困难, 也许这是人工智能中最难的一项挑战。 常规的机器翻译方法有统计机器翻译和神经机器翻译,这里我们主要讨论神经机器翻译。 从上图中我们可以看到,翻译的主要任务是在学习源端词到目标端词的一种映射关系,同时还包括调序,例如先翻译了read a book 而不是on Sunday。 那么如何评价翻译质量如何呢? 翻译专员人工评价(准确度更高,但费时费力) 自动评价(速度快,方便模型迭代,但存在缺陷) 实验操作1 In[36] # run prediction !tar -zxf /home/aistudio/data/data13032/ddle_ai_course.t -C /home/aistudio WORK_PATH = "/home/aistudio/paddle_ai_course" # decompress pretrained models !tar -zxf {WORK_PATH}/model_big.tgz -C {WORK_PATH} !tar -zxf {WORK_PATH}/model_small.tgz -C {WORK_PATH} !cd {WORK

Python使用pip安装TensorFlow模块

我们两清 提交于 2020-04-23 08:29:01
1.首先确保已经安装python,然后用pip来安装matplotlib模块。 2.进入到 cmd 窗口下, 建议 执行python -m pip install -U pip setuptools进行升级。 3.如果之前已经安装了Numpy,则需要先卸载之前的安装,因为每个Tensorflow都有一个版本的numpy对应,故要卸载之前numpy 4.接着键入python -m pip install --upgrade tensorflow 进行自动的安装,系统会自动下载安装包。 命令提交以后,你唯一能做的就是等待了。你唯一能祈祷的,就是这该死的GFW不会坏了你好事。 还好这次运气不错,一次搞定。 验证安装 在桌面上创建a.py文件,写入以下代码 import tensorflow as tf import os os.environ[ ' TF_CPP_MIN_LOG_LEVEL ' ]= ' 2 ' hello = tf.constant( ' Hello, TensorFlow! ' ) sess = tf.Session() print (sess.run(hello)) a = tf.constant(10 ) b = tf.constant(25 ) print (sess.run(a + b)) 参考: win10安装TensorFlow填坑笔记:http:/

FFMPEG 配置选项详细说明

陌路散爱 提交于 2020-04-23 05:00:25
转自:https://blog.csdn.net/z2066411585/article/details/81239446 用法:配置[选项] 选项:[描述后括号中的默认值] 帮助选项: --help 打印此消息 --quiet 抑制显示信息输出 --list-decoders 显示所有可用的解码器 --list-encoders 显示所有可用的编码器 --list-hwaccels 显示所有可用的硬件加速器 --list-demuxers 显示所有可用的解复用器 --list-muxers 显示所有可用的复用器 --list-parsers 显示所有可用的解析器 --list-protocols 显示所有可用的协议 --list-bsfs 显示所有可用的比特流过滤器 --list-indevs 显示所有可用的输入设备 --list-outdevs 显示所有可用的输出设备 --list-filters 显示所有可用的过滤器 标准选项: --logfile = FILE日志测试并输出到FILE [ffbuild / config.log] --disable-logging不记录配置调试信息 - 如果生成任何配置警告,则-fatal-warnings将失败 --prefix = PREFIX安装在PREFIX [/ usr / local] -bindir = DIR在DIR

【pytorch-ssd目标检测】训练自己创建的数据集

半城伤御伤魂 提交于 2020-04-22 19:00:55
制作类似pascal voc格式的目标检测数据集: https://www.cnblogs.com/xiximayou/p/12546061.html 代码来源:https://github.com/amdegroot/ssd.pytorch 拷贝下来的代码好多坑要踩。。。 我将其上传到谷歌colab上,当前目录结构如下: 需要说明的是,虽然我们只有2类,但是,要加上背景一类,所以总共我们有3类。 首先我们要读取自己的数据集 在config.py中 # config.py import os.path # gets home dir cross platform # HOME = os.path.expanduser("~") HOME = os.path.expanduser("/content/drive/My Drive/pytorch_ssd/") # for making bounding boxes pretty COLORS = ((255, 0, 0, 128), (0, 255, 0, 128), (0, 0, 255, 128 ), (0, 255, 255, 128), (255, 0, 255, 128), (255, 255, 0, 128 )) MEANS = (104, 117, 123 ) mask = { 'num_classes': 3, 'lr

The NVIDIA driver on your system is too old

怎甘沉沦 提交于 2020-04-22 16:16:37
The NVIDIA driver on your system is too old https://www.zhihu.com/question/309583980 原因是我安装的pytorch版本是需要cudav9.2版的,而我电脑上安装的是v9.0版的,不兼容 因此,解决方案是安装cudav9.2版,问题就解决了 原因分析:刚刚重装的系统,其显卡驱动是由Windows 10自身提供的,可能版本比较旧,需要安装最新的驱动。 解决:在NVIDIA官网上重新下载对应的显卡驱动并安装即可(注意:是 驱动 ,并非CUDA) 解决方法 第一种方法是把显卡驱动更新一下。 (1)nvidia-smi -L查看自己的显卡型号。 (2)然后在 https://www.nvidia.cn/Download/index.aspx?lang=cn 中下载相应驱动。 (3)安装驱动。 第二种方法是安装cuda 7.5。 (1)首先在 https://developer.nvidia.com/cuda-toolkit-archive 中根据机子环境,下载相应的cuda 7.5安装文件,我下的是sh文件。 (2)然后安装cuda 7.5。 (3)最后 sudo pip install mxnet-cu75==1.2.1 安装cuda 7.5的mxnet版本即可。 来源: oschina 链接: https

【pytorch-ssd目标检测】训练自己创建的数据集

核能气质少年 提交于 2020-04-22 12:21:44
制作类似pascal voc格式的目标检测数据集: https://www.cnblogs.com/xiximayou/p/12546061.html 代码来源:https://github.com/amdegroot/ssd.pytorch 拷贝下来的代码好多坑要踩。。。 我将其上传到谷歌colab上,当前目录结构如下: 需要说明的是,虽然我们只有2类,但是,要加上背景一类,所以总共我们有3类。 首先我们要读取自己的数据集 在config.py中 # config.py import os.path # gets home dir cross platform # HOME = os.path.expanduser("~") HOME = os.path.expanduser("/content/drive/My Drive/pytorch_ssd/") # for making bounding boxes pretty COLORS = ((255, 0, 0, 128), (0, 255, 0, 128), (0, 0, 255, 128 ), (0, 255, 255, 128), (255, 0, 255, 128), (255, 255, 0, 128 )) MEANS = (104, 117, 123 ) mask = { 'num_classes': 3, 'lr

基于PaddlePaddle的对话通用理解模块DGU

和自甴很熟 提交于 2020-04-22 02:27:13
对话通用理解模块DGU 1、模型简介 2、快速开始 3、进阶使用 4、参考论文 1、模型简介     对话相关的任务中,Dialogue System常常需要根据场景的变化去解决多种多样的任务。任务的多样性(意图识别、槽位解析、DA识别、DST等等),以及领域训练数据的稀少,给Dialogue System的研究和应用带来了巨大的困难和挑战,要使得dialogue system得到更好的发展,需要开发一个通用的对话理解模型。为此,我们给出了基于BERT的对话通用理解模块(DGU: DialogueGeneralUnderstanding),通过实验表明,使用base-model(BERT)并结合常见的学习范式,就可以在几乎全部对话理解任务上取得比肩甚至超越各个领域业内最好的模型的效果,展现了学习一个通用对话理解模型的巨大潜力。 下载安装命令 ## CPU版本安装命令 pip install -f https://paddlepaddle.org.cn/pip/oschina/cpu paddlepaddle ## GPU版本安装命令 pip install -f https://paddlepaddle.org.cn/pip/oschina/gpu paddlepaddle-gpu 2、快速开始 安装说明   a、环境依赖 Python >= 2.7 cuda >= 9.0

MMDetection 入门 | 二

|▌冷眼眸甩不掉的悲伤 提交于 2020-04-21 16:17:48
作者|open-mmlab 编译|Flin 来源|Github 入门 本页提供有关MMDetection用法的基本教程。 有关安装说明,请参阅上一篇的安装文档 。 预训练模型的推论 我们提供测试脚本来评估整个数据集(COCO,PASCAL VOC等)以及一些高级api,以便更轻松地集成到其他项目。 测试数据集 [x]单个GPU测试 [x]多个GPU测试 [x]可视化检测结果 你可以使用以下命令测试数据集。 #单GPU测试 python tools / test.py $ {CONFIG_FILE} $ {CHECKPOINT_FILE} [--out $ {RESULT_FILE}] [--eval $ {EVAL_METRICS}] [--show] #多GPU测试 ./tools/dist_test.sh $ {CONFIG_FILE} $ {CHECKPOINT_FILE} $ {GPU_NUM} [--out $ {RESULT_FILE}] [--eval $ {EVAL_METRICS}] 可选参数: RESULT_FILE :输出结果的文件名是pickle格式。如果未指定,结果将不会保存到文件中。 EVAL_METRICS :要根据结果评估的项目。允许的值取决于数据集,例如 proposal_fast , proposal , bbox , segm 可用于COCO和