PyTorch 术语

PyTorch 术语

在这一章中,我们将讨论PyTorch中最常用的一些术语。

PyTorch NumPy

PyTorch张量与NumPy数组相同。张量是一个n维数组,在PyTorch中,它提供了许多用于操作这些张量的函数。

PyTorch张量通常利用GPU加速其数值计算。在PyTorch中创建的这些张量可以用于将两层网络拟合到随机数据上。用户可以手动实现网络的前向传播和反向传播。

变量和Autograd

在使用Autograd时,网络的前向传播将定义一个计算图,图中的节点将是张量,边将是将输入张量产生输出张量的函数。

PyTorch张量可以作为变量对象创建,其中变量表示计算图中的一个节点。

动态图

静态图很好,因为用户可以提前优化图。如果程序员反复重用相同的图,那么这个潜在昂贵的预先优化可以在重复运行相同图时保持。

它们之间的主要区别是TensorFlow的计算图是静态的,而PyTorch使用动态计算图。

优化包

PyTorch中的optim包抽象了优化算法的概念,这些算法以多种方式实现,并提供了常用优化算法的示例。可以在import语句中引用此包。

多进程

多进程支持相同的操作,以便所有张量都可以在多个处理器上工作。队列将其数据移入共享内存,只发送一个句柄到另一个进程。

PyTorch 教程目录

Python教程

Java教程

Web教程

数据库教程

图形图像教程

大数据教程

开发工具教程

计算机教程