使用PyTorch创建神经网络
2019年年初,ApacheCN组织志愿者翻译了PyTorch1.0版本中文文档( github地址 ),同时也获得了PyTorch官方授权,我相信已经有许多人在 中文文档官网 上看到了。不过目前 校对 还缺人手,希望大家踊跃参与。之前一段时间我们和PyTorch的有关负责人Bruce Lin一直在进行邮件交流。在之后适当的时候,我们会组织志愿者进行其他有关PyTorch的项目,欢迎大家加入我们,关注我们。更希望我们的一系列工作能够对大家有所帮助。 译者: bat67 校对者: FontTian 可以使用 torch.nn 包来构建神经网络. 我们已经介绍了 autograd , nn 包则依赖于 autograd 包来定义模型并对它们求导。一个 nn.Module 包含各个层和一个 forward(input) 方法,该方法返回 output 。 例如,下面这个神经网络可以对数字进行分类: 这是一个简单的前馈神经网络(feed-forward network)。它接受一个输入,然后将它送入下一层,一层接一层的传递,最后给出输出。 一个神经网络的典型训练过程如下: 定义包含一些可学习参数(或者叫权重)的神经网络 在输入数据集上迭代 通过网络处理输入 计算损失(输出和正确答案的距离) 将梯度反向传播给网络的参数 更新网络的权重,一般使用一个简单的规则: weight = weight