cuda

Pytorch报错记录

£可爱£侵袭症+ 提交于 2020-10-31 08:51:49
1.BrokenPipeError 执行以下命令时: a,b = iter(train_loader).next() 报错:BrokenPipeError: [Errno 32] Broken pipe 错误原因 :子进程原因 On Windows the subprocesses will import (i.e. execute) the main module at start. You need to insert an if __name__ == '__main__': guard in the main module to avoid creating subprocesses recursively. 解决方法: Please see my edited response where I did exactly that. The requirement for wrapping the code inside of if __name__ == '__main__' code isn't immediately obvoius, as it is only required for Windows machines.就是说在windows下必须将上面的代码打包在if __name__ == '__main__'语句下面。这时不会报错了。 还有人说:I also

并行化-你的高并发大杀器

本秂侑毒 提交于 2020-10-30 19:37:53
1.前言 想必热爱游戏的同学小时候,都幻想过要是自己要是能像鸣人那样会多重影分身之术,就能一边打游戏一边上课了,可惜漫画就是漫画,现实中并没有这个技术,你要么只有老老实实的上课,要么就只有逃课去打游戏了。虽然在现实中我们无法实现多重影分身这样的技术,但是我们可以在计算机世界中实现我们这样的愿望。 2.计算机中的分身术 计算机中的分身术不是天生就有了。在1971年,1971年,英特尔推出的全球第一颗通用型微处理器4004,由2300个晶体管构成。当时,公司的联合创始人之一戈登摩尔就提出大名鼎鼎的“摩尔定律”——每过18个月,芯片上可以集成的晶体管数目将增加一倍。最初的主频740kHz(每秒运行74万次),现在过了快50年了,大家去买电脑的时候会发现现在的主频都能达到4.0GHZ了(每秒40亿次)。但是主频越高带来的收益却是越来越小: 据测算,主频每增加1G,功耗将上升25瓦,而在芯片功耗超过150瓦后,现有的风冷散热系统将无法满足散热的需要。有部分CPU都可以用来煎鸡蛋了。 流水线过长,使得单位频率效能低下,越大的主频其实整体性能反而不如小的主频。 戈登摩尔认为摩尔定律未来10-20年会失效。 在单核主频遇到瓶颈的情况下,多核CPU应运而生,不仅提升了性能,并且降低了功耗。所以多核CPU逐渐成为现在市场的主流,这样让我们的多线程编程也更加的容易。 说到了多核CPU就一定要说GPU

ubuntu16.04安装CUDA 8.0(很详尽,包括一些坑的解决方法)

喜欢而已 提交于 2020-10-29 20:21:19
ubuntu16.04安装CUDA 8.0(很详尽,包括一些坑的解决方法) 参考文章: (1)ubuntu16.04安装CUDA 8.0(很详尽,包括一些坑的解决方法) (2)https://www.cnblogs.com/left4back/p/10952845.html 备忘一下。 来源: oschina 链接: https://my.oschina.net/u/4437884/blog/4694824

PyTorch--Tensor

|▌冷眼眸甩不掉的悲伤 提交于 2020-10-29 02:53:39
PyTorch–Tensor 几乎所有的深度学习框架背后的设计核心都是张量和计算图, PyTorch 也不例外 一.Tensor的简介 Tensor,又名张量,可能对这个名词似曾相识,因它不仅在PyTorch中出现过,它也是Theano、TensorFlow、 Torch和MxNet中重要的数据结构。关于张量的本质不乏深度的剖析,但从工程角度来讲,可简单地认为它就是一个数组,且支持高效的科学计算。它可以是一个数(标量)、一维数组(向量)、二维数组(矩阵)和更高维的数组(高阶数据)。Tensor和Numpy的ndarrays类似,但PyTorch的tensor支持GPU加速。 本节将系统讲解tensor的使用,力求面面俱到,但不会涉及每个函数。对于更多函数及其用法,读者可通过在IPython/Notebook中使用函数名加 ? 查看帮助文档,或查阅PyTorch官方文档 [1] 。 # Let's begin from __future__ import print_function import torch as t 二.Tensor基础操作 学习过Numpy的读者会对本节内容感到非常熟悉,因tensor的接口有意设计成与Numpy类似,以方便用户使用。但不熟悉Numpy也没关系,本节内容并不要求先掌握Numpy。 从接口的角度来讲,对tensor的操作可分为两类: torch

screen或者tmux中因CUDA无法调用GPU问题

安稳与你 提交于 2020-10-26 16:48:03
说明: screen 与 tmux 都是可以实现远程离线训练模型的工具, 可以使训练命令在服务器后台运行,当前ssh断掉连接也不会影响训练指令. 但是最近发现若是在screen中使用虚拟环境,tensorflow占用了GPU但是未使用GPU计算, 并且若是使用theano可能会报如下错误: You forced the use of gpu device gpu,but CUDA initialization failed with error: cuda unavailable 原因: 会话环境可能改变了环境变量 LD_LIBRARY_PATH 解决方案: 先在screen会话外的命令行中确认能运行的环境的LD_LIBRARY_PATH是多少 即: echo $LD_LIBRARY_PATH 然后进入screen会话中定义该环境变量,PATH为上面echo输出的正常变量地址 即: export LD_LIBRARY_PATH="PATH" 并且虚拟环境名称与会话名称最好不同 来源: oschina 链接: https://my.oschina.net/u/3726752/blog/4287303