Pytorch理解
理解张量
张量如同数组和矩阵一样, 是一种特殊的数据结构。在PyTorch
中, 神经网络的输入、输出以及网络的参数等数据, 都是使用张量来进行描述。
张量的使用和Numpy
中的ndarrays
很类似, 区别在于张量可以在GPU
或其它专用硬件上运行, 这样可以得到更快的加速效果。如果你对ndarrays
很熟悉的话, 张量的使用对你来说就很容易了。如果不太熟悉的话, 希望这篇有关张量API
的快速入门教程能够帮到你。
卷积网
这是一个简单的前馈网络。 它获取输入,将其一层又一层地馈入,然后最终给出输出。
神经网络的典型训练过程如下:
- 定义具有一些可学习参数(或权重)的神经网络
- 遍历输入数据集
- 通过网络处理输入
- 计算损失(输出正确的距离有多远)
- 将梯度传播回网络参数
- 通常使用简单的更新规则来更新网络的权重:
weight = weight - learning_rate * gradient
理解为权重一直是利用一种规则进行学习的方式。权重是程序员进行开始定义,可以简单的理解为开始是不认识,有点认识,在更进一步认识。
Python 暂停一下,开始go web的学习