Expected object of backend CPU but got backend CUDA 报错解决方法---torchSnooper

喜夏-厌秋 提交于 2020-03-12 04:37:06

这种问题调试起来很麻烦,因为你不知道从哪里开始出问题的,比如你可能在代码的第三行用torch.zeros新建了一个cpu tensor,然后这个tensor进行了若干运算,全是在cpu上进行的,一直没有报错,直到第10行需要跟你作为输入传进来的CUDAtensor 进行运算的时候,才报错。要调试这种错误,有时候就不得不一行行地手写print语句,非常麻烦。

TorchSnooper就是一个设计了用来解决这个问题的工具,安装:

pip install torchsnooper

安装完之后,只需要用@torchsnooper.snoop()装饰一下要调试的函数,这个函数在执行的时候,就会自动print出来每一行的执行结果的tensor的形状,数据类型,设备是否需要梯度的信息。

import torchsnooper
@torchsnooper.snoop()
def create_window(window_size: int, sigma: float, channel: int):
    '''
    Create 1-D gauss kernel
    :param window_size: the size of gauss kernel
    :param sigma: sigma of normal distribution
    :param channel: input channel
    :return: 1D kernel
    '''
    coords = torch.arange(window_size, dtype=torch.float)
    coords -= window_size // 2

    g = torch.exp(-(coords ** 2) / (2 * sigma ** 2))
    g /= g.sum()

    g = g.reshape(1, 1, 1, -1).repeat(channel, 1, 1, 1)
    g=g.cuda()
    return g

 

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!