PyTorch 术语
在这一章中,我们将讨论PyTorch中最常用的一些术语。
PyTorch NumPy
PyTorch张量与NumPy数组相同。张量是一个n维数组,在PyTorch中,它提供了许多用于操作这些张量的函数。
PyTorch张量通常利用GPU加速其数值计算。在PyTorch中创建的这些张量可以用于将两层网络拟合到随机数据上。用户可以手动实现网络的前向传播和反向传播。
变量和Autograd
在使用Autograd时,网络的前向传播将定义一个计算图,图中的节点将是张量,边将是将输入张量产生输出张量的函数。
PyTorch张量可以作为变量对象创建,其中变量表示计算图中的一个节点。
动态图
静态图很好,因为用户可以提前优化图。如果程序员反复重用相同的图,那么这个潜在昂贵的预先优化可以在重复运行相同图时保持。
它们之间的主要区别是TensorFlow的计算图是静态的,而PyTorch使用动态计算图。
优化包
PyTorch中的optim包抽象了优化算法的概念,这些算法以多种方式实现,并提供了常用优化算法的示例。可以在import语句中引用此包。
多进程
多进程支持相同的操作,以便所有张量都可以在多个处理器上工作。队列将其数据移入共享内存,只发送一个句柄到另一个进程。
PyTorch 教程目录
- PyTorch 简介
- PyTorch 安装
- PyTorch 神经网络的数学基本构建模块
- PyTorch 神经网络基础
- PyTorch 机器学习的通用工作流程
- PyTorch 机器学习 vs. 深度学习
- PyTorch 实现第一个神经网络
- PyTorch 神经网络到功能块
- PyTorch 术语
- PyTorch 加载数据
- PyTorch 线性回归
- PyTorch 卷积神经网络
- PyTorch 循环神经网络
- PyTorch 数据集
- PyTorch 卷积神经网络介绍
- PyTorch 从头训练一个卷积神经网络
- PyTorch 卷积神经网络中的特征提取
- PyTorch 卷积神经网络的可视化
- PyTorch 序列处理与卷积
- PyTorch 词嵌入
- PyTorch 递归神经网络