📅  最后修改于: 2020-12-10 05:22:32             🧑  作者: Mango
在本章中,我们将讨论PyTorch中一些最常用的术语。
PyTorch张量与NumPy数组相同。张量是n维数组,相对于PyTorch,它提供了许多在这些张量上运行的功能。
PyTorch张量通常利用GPU来加速其数值计算。这些在PyTorch中创建的张量可用于使两层网络适合随机数据。用户可以手动实现通过网络的前进和后退。
使用autograd时,网络的正向传递将定义一个计算图–图中的节点将是张量,而边将是从输入张量产生输出张量的函数。
PyTorch张量可以创建为变量对象,其中变量表示计算图中的节点。
静态图很好,因为用户可以预先优化图。如果程序员一遍又一遍地重用同一张图,那么随着一遍一遍地重复运行同一张图,可以维持这种潜在的昂贵的前期优化。
它们之间的主要区别在于Tensor Flow的计算图是静态的,而PyTorch使用动态的计算图。
PyTorch中的optim软件包抽象了一种优化算法的思想,该思想可以通过多种方式实现,并提供了常用优化算法的图解。可以在import语句中调用它。
多处理支持相同的操作,因此所有张量都可在多个处理器上工作。队列会将其数据移到共享内存中,并且只会将句柄发送到另一个进程。