PyTorch介绍与快速入门 – wiki基地


PyTorch 介绍与快速入门:深度学习的灯塔

引言

在当今人工智能浪潮中,深度学习无疑是最引人注目的技术之一。它驱动着语音识别、图像处理、自然语言处理、推荐系统等众多领域的突破。而支撑这些进步的,是强大而灵活的深度学习框架。在众多框架中,PyTorch 以其“Pythonic”的特性、动态计算图的灵活性以及强大的社区支持,迅速崛起并成为研究界和工业界广受欢迎的选择,尤其在学术研究领域占据了主导地位。

本文旨在为读者详细介绍 PyTorch,从它的核心概念、优势特性,到如何安装使用,并通过一个简单而完整的实例带你快速上手。无论你是深度学习新手,还是希望从其他框架(如 TensorFlow)迁移过来,本文都将为你提供一个坚实的基础。

第一部分:PyTorch 是什么?为什么选择 PyTorch?

1. PyTorch 简介

PyTorch 是一个开源的机器学习库,主要由 Facebook(现 Meta)的 AI 研究团队开发和维护。它基于 Torch 库(一个使用 Lua 语言的科学计算框架),但用 Python 进行了重写,使其更加易用。PyTorch 提供了强大的 GPU 加速张量计算(类似于 NumPy),以及构建和训练神经网络所需的高级功能,包括自动微分系统(Autograd)、丰富的神经网络层模块(torch.nn)、优化器(torch.optim)和数据处理工具(torch.utils.data)。

2. PyTorch 的核心特性与优势

为什么 PyTorch 如此受欢迎?它的魅力主要体现在以下几个方面:

  • Pythonic 和易用性: PyTorch 的 API 设计非常贴近 Python 语言的风格,使用起来感觉就像在写普通的 Python 代码。这降低了学习门槛,使得开发者能够快速上手并高效地实现想法。调试也相对容易,你可以像调试普通 Python 程序一样进行单步调试。
  • 动态计算图 (Dynamic Computation Graph): 这是 PyTorch 与早期 TensorFlow(1.x 版本)等框架最显著的区别之一。PyTorch 的计算图是在程序运行时动态构建的。这意味着你可以根据输入数据的不同,构建出不同的计算图。这种灵活性在处理变长序列(如 RNN/LSTM)、条件控制流以及复杂的模型结构时非常有用,极大地便利了模型的设计、调试和研究。尽管 TensorFlow 2.x 也引入了 Eager Execution(类似动态图),但 PyTorch 在动态图方面的设计被认为更加简洁直观。
  • 强大的自动微分系统 (Autograd): PyTorch 的 Autograd 系统能够自动计算张量上的所有操作的梯度。这是训练神经网络的核心,因为它允许我们通过反向传播算法高效地计算模型参数的梯度,从而进行优化。Autograd 的实现高效且直观,是 PyTorch 强大功能的基础。
  • 丰富的生态系统: PyTorch 拥有一个活跃且不断壮大的生态系统。除了核心库之外,还有:
    • TorchVision: 针对计算机视觉任务的库,提供常用数据集、模型架构和图像转换工具。
    • TorchText: 针对自然语言处理任务的库,提供文本处理工具、数据集和模型。
    • TorchAudio: 针对音频处理任务的库,提供音频数据集、模型和转换工具。
    • PyTorch Lightning: 一个轻量级的 PyTorch 封装,帮助组织代码、减少样板文件,使得实验更加结构化和可重复。
    • Hugging Face Transformers: 基于 PyTorch(也支持 TensorFlow 和 JAX)的库,提供了大量预训练的 Transformer 模型,极大地推动了 NLP 领域的发展。
    • 还有许多其他优秀的库和工具,覆盖模型解释、部署等方面。
  • 优秀的社区支持和文档: PyTorch 拥有一个非常活跃的开发者社区。官方文档清晰、详细,社区教程和示例丰富。遇到问题时,很容易在论坛或 GitHub 上找到解决方案。
  • 研究界的青睐: 由于其灵活性和易用性,PyTorch 在学术研究领域非常流行。许多最新的研究成果和论文都提供了 PyTorch 实现,这使得跟踪前沿进展和复现实验变得更加容易。

3. PyTorch 的适用场景

基于上述优势,PyTorch 特别适合以下场景:

  • 学术研究和原型设计: 动态图和易用性使得快速迭代和实验新模型架构成为可能。
  • 需要复杂或变长输入模型的开发: 如 RNNs, LSTMs, Transformers 处理序列数据。
  • 开发者偏好 Pythonic 的编程风格: 喜欢更像普通 Python 代码的框架。
  • 需要高度灵活的控制流: 模型内部包含复杂的逻辑判断或循环。

当然,PyTorch 也广泛应用于工业界的生产环境。随着 TorchServe 等部署工具的成熟,以及 PyTorch 本身对模型导出(ONNX, TorchScript)的支持,将 PyTorch 模型部署到生产环境也变得越来越便捷。

第二部分:PyTorch 核心概念

在使用 PyTorch 构建和训练模型之前,理解其几个核心概念至关重要。

1. 张量 (Tensor)

张量是 PyTorch 的基本数据结构,它是一个多维数组。张量与 NumPy 的 ndarray 非常相似,但张量可以使用 GPU 进行加速计算。

  • 创建张量:
    • 从 Python 列表创建:torch.tensor([[1, 2], [3, 4]])
    • 创建特定形状的张量:torch.zeros(2, 3), torch.ones(4, 5), torch.rand(1, 10)
    • 创建未初始化(内容随机)的张量:torch.empty(2, 2)
  • 数据类型: 张量可以存储各种数据类型,如 torch.float32 (默认浮点型)、torch.float64torch.int64torch.bool 等。可以通过 dtype 参数指定类型,或使用 .dtype 属性查看。
  • 形状 (Shape): 张量的形状用一个元组表示,描述了每个维度的长度。tensor.shapetensor.size() 返回形状。
  • 设备 (Device): 张量可以存储在 CPU 或 GPU 上。tensor.to('cuda') 将张量移动到 GPU,tensor.to('cpu') 移回 CPU。通过 tensor.device 属性查看当前设备。在进行计算时,参与运算的张量必须在同一设备上。
  • 操作: PyTorch 张量支持丰富的数学运算,包括加减乘除、矩阵乘法 (torch.mm@)、转置 (.T)、求和 (.sum())、平均值 (.mean()) 等。这些操作与 NumPy 类似,并且可以在 GPU 上高效执行。

2. 自动微分 (Autograd)

Autograd 是 PyTorch 的魔法所在,它能够自动记录对张量的所有操作,并在需要时计算这些操作的梯度。这是实现反向传播算法的基础。

  • requires_grad=True 要让 PyTorch 跟踪一个张量上的操作并计算其梯度,需要在创建张量时设置 requires_grad=True,或者使用 .requires_grad_(True) 方法。通常,模型的参数(权重和偏置)会设置为 requires_grad=True
  • 计算图: 当你对设置为 requires_grad=True 的张量执行操作时,PyTorch 会在后台构建一个计算图。图中的节点是张量,边是执行的操作。
  • .backward() 调用一个标量张量(通常是损失函数计算出的最终损失)的 .backward() 方法会启动反向传播过程。PyTorch 会遍历计算图,计算图中所有叶子节点(即那些 requires_grad=True 且不是由其他操作创建的张量,通常是模型的参数)的梯度。
  • .grad 梯度计算完成后,叶子节点的梯度会累积存储在其 .grad 属性中。
  • 梯度清零: 需要注意的是,梯度是累积的。在每次训练迭代计算新梯度之前,需要使用 optimizer.zero_grad()(更常见)或 tensor.grad.zero_() 手动将叶子节点的梯度清零,否则本次计算的梯度会与上次的累加。

3. torch.nn 模块

torch.nn 是 PyTorch 构建神经网络的核心模块。它提供了一系列预定义的神经网络层(Modules)和工具。

  • nn.Module 所有神经网络模块的基类(包括整个模型)。当你定义一个自己的神经网络模型时,需要继承 nn.Module 类。
    • __init__ 方法中定义模型的各个层(如 nn.Linear, nn.Conv2d)。
    • forward 方法中定义模型的前向传播逻辑,即数据如何流经这些层。forward 方法接收输入张量,并返回输出张量。
  • 常用层: nn 模块提供了各种标准的层:
    • nn.Linear(in_features, out_features):全连接层/线性层。
    • nn.Conv1d/2d/3d(...):卷积层。
    • nn.MaxPool1d/2d/3d(...):池化层。
    • nn.ReLU, nn.Sigmoid, nn.Tanh:激活函数。
    • nn.Dropout(...):Dropout 层。
    • nn.BatchNorm1d/2d/3d(...):批量归一化层。
    • nn.LSTM, nn.GRU, nn.Transformer(...):循环神经网络和 Transformer 相关的模块。
  • 损失函数 (Loss Functions): nn 模块也包含各种损失函数:
    • nn.CrossEntropyLoss():交叉熵损失,常用于多分类问题(输入通常是模型的原始输出 logits)。
    • nn.MSELoss():均方误差损失,常用于回归问题。
    • nn.BCELoss():二元交叉熵损失。
    • nn.NLLLoss():负对数似然损失(常与 nn.LogSoftmax 一起使用)。

4. torch.optim 模块

torch.optim 模块实现了各种优化算法,用于根据计算出的梯度更新模型参数。

  • 你需要实例化一个优化器对象,并传入模型需要优化的参数(通常是 model.parameters())以及学习率等超参数。
  • 常用优化器:
    • optim.SGD(...):随机梯度下降。
    • optim.Adam(...):Adam 优化器,自适应学习率方法。
    • optim.RMSprop(...):RMSprop 优化器。
    • optim.Adagrad(...):Adagrad 优化器。
  • 优化步骤:
    • optimizer.zero_grad():在计算新梯度之前,清零所有被优化张量的梯度。
    • loss.backward():计算当前损失相对于模型参数的梯度。
    • optimizer.step():根据计算出的梯度更新模型参数。

5. torch.utils.data 模块

在训练深度学习模型时,我们通常需要处理大量数据,并以小批量(mini-batch)的形式喂给模型进行训练。torch.utils.data 模块提供了方便的数据处理工具。

  • Dataset Dataset 是一个抽象类,表示一个数据集。你需要定义自己的数据集类,继承 Dataset,并实现两个方法:
    • __len__(self):返回数据集的大小。
    • __getitem__(self, index):根据索引获取数据集中一个样本(包括数据和标签)。
  • DataLoader DataLoader 封装了 Dataset,负责以指定批量大小、是否打乱顺序、是否并行加载数据(通过 num_workers 参数)等方式从数据集中加载数据。在训练循环中,通常遍历 DataLoader 来获取每个 mini-batch 的数据。

第三部分:PyTorch 安装

安装 PyTorch 非常简单。最推荐的方式是使用官方网站提供的安装命令。

  1. 访问 PyTorch 官方网站的安装页面:https://pytorch.org/get-started/locally/
  2. 选择你的操作系统 (Operating System)、包管理器 (Package Manager, 通常是 Conda 或 Pip)、计算平台 (Compute Platform, CUDA 版本或 CPU)。
  3. 网站会生成对应的安装命令。例如:

    • 使用 Conda 安装(推荐,因为它能更好地管理 CUDA 相关的依赖):
      bash
      conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch
      # 这里的 cudatoolkit 版本根据你的实际 CUDA 版本选择
    • 使用 Pip 安装:
      bash
      pip install torch torchvision torchaudio
      # 如果需要 CUDA 支持,可能需要指定额外参数,具体看官网命令
      # 例如:pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
    • 在终端或命令行中运行生成的命令。

验证安装: 安装完成后,打开 Python 环境,运行以下代码:

python
import torch
print(torch.__version__)
print(torch.cuda.is_available()) # 检查 CUDA 是否可用 (如果你安装了 GPU 版本)
print(torch.cuda.device_count()) # 如果 CUDA 可用,查看 GPU 数量

如果能正确打印版本号,并且 torch.cuda.is_available() 在你安装了 GPU 版本且环境配置正确时返回 True,则说明安装成功。

第四部分:PyTorch 快速入门:一个线性回归实例

我们将通过一个简单的线性回归例子来演示 PyTorch 的基本使用流程。目标是学习如何找到最佳的 ab,使得 y ≈ ax + b

“`python
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

1. 创建模拟数据

真实的线性关系:y = 2 * x + 1 + noise

torch.manual_seed(42) # 设置随机种子以便结果可复现
np.random.seed(42)

true_a = 2.0
true_b = 1.0
num_samples = 100

生成 x,在 [0, 10) 之间均匀分布

X_np = 10 * np.random.rand(num_samples, 1)

生成 y,添加一些随机噪声

y_np = true_a * X_np + true_b + np.random.randn(num_samples, 1) * 1.5 # 添加标准差为1.5的噪声

将 NumPy 数组转换为 PyTorch 张量

注意数据类型,通常神经网络使用浮点型

X_train = torch.tensor(X_np, dtype=torch.float32)
y_train = torch.tensor(y_np, dtype=torch.float32)

可视化数据

plt.scatter(X_np, y_np, label=’Data’)
plt.xlabel(‘X’)
plt.ylabel(‘y’)
plt.title(‘Simulated Data’)

plt.show() # 如果在Jupyter Notebook或Colab,不需要plt.show()

2. 定义线性回归模型

继承 nn.Module

class LinearRegressionModel(nn.Module):
def init(self):
super(LinearRegressionModel, self).init() # 调用父类的构造函数
# 定义一个线性层:输入特征数为1,输出特征数为1
# nn.Linear 内部会自动创建权重 W 和偏置 b,并初始化
# 权重和偏置张量会被设置为 requires_grad=True
self.linear = nn.Linear(1, 1)

def forward(self, x):
    # 定义前向传播逻辑
    # 输入 x 经过线性层得到输出
    return self.linear(x)

实例化模型

model = LinearRegressionModel()
print(“模型结构:”)
print(model)

查看模型参数 (W和b) 的初始值

print(“\n模型参数 (初始值):”)
for name, param in model.named_parameters():
if param.requires_grad:
print(f”{name}: {param.data.numpy()}”)

3. 定义损失函数和优化器

损失函数:均方误差 (MSE),用于回归问题

criterion = nn.MSELoss()

优化器:随机梯度下降 (SGD)

传入 model.parameters(),表示优化所有模型的参数

lr 是学习率 (learning rate),控制每次参数更新的步长

optimizer = optim.SGD(model.parameters(), lr=0.01)

4. 训练模型

num_epochs = 100 # 训练的总轮数

print(“\n开始训练…”)
for epoch in range(num_epochs):
# 设置模型为训练模式 (对于本例中的线性模型,train()和eval()没有区别,但对Dropout, BatchNorm等层有影响)
model.train()

# 前向传播:将输入 X_train 喂给模型,得到预测值 outputs
outputs = model(X_train)

# 计算损失:将预测值 outputs 和真实值 y_train 传给损失函数
loss = criterion(outputs, y_train)

# 反向传播和优化
optimizer.zero_grad() # 清零之前的梯度
loss.backward()       # 计算当前损失的梯度
optimizer.step()      # 根据梯度更新模型参数

# 打印训练信息
if (epoch + 1) % 10 == 0:
    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

print(“训练结束.”)

5. 评估模型 (可选,这里简单看看学到的参数)

设置模型为评估模式 (会关闭Dropout等层的随机行为)

model.eval()

在评估模式下,通常不需要计算梯度,可以禁用梯度计算以节省内存和计算

with torch.no_grad(): # 上下文管理器,禁用梯度计算
predicted = model(X_train).numpy() # 获取预测值并转回 NumPy 数组

打印学到的参数

print(“\n模型参数 (训练后):”)
for name, param in model.named_parameters():
if param.requires_grad:
print(f”{name}: {param.data.numpy()}”)
print(f”真实的 a={true_a}, b={true_b}”)

6. 可视化结果

plt.plot(X_np, predicted, color=’red’, label=’Learned Regression Line’)
plt.legend()
plt.grid(True)
plt.show()

“`

代码解释:

  1. 创建模拟数据: 我们使用 NumPy 创建了带有噪声的线性数据 y = 2*x + 1 + noise。然后将 NumPy 数组转换为 PyTorch 张量,并指定数据类型为 float32,这是神经网络中常用的浮点型。
  2. 定义线性回归模型: 我们定义了一个继承自 nn.Module 的类 LinearRegressionModel。在 __init__ 中,我们实例化了一个 nn.Linear(1, 1) 层。这是一个全连接层,接受一个输入特征(x),输出一个特征(y)。nn.Linear 内部会自动创建并管理权重 W 和偏置 b,并将它们设置为 requires_grad=True,以便 Autograd 可以计算它们的梯度。forward 方法定义了数据流:简单地将输入 x 传给 self.linear 层。
  3. 定义损失函数和优化器: 我们选择了 nn.MSELoss() 作为损失函数,它计算预测值和真实值之间的均方误差。优化器选择了 optim.SGD(随机梯度下降),并将 model.parameters() 传递给它。model.parameters() 会返回模型中所有 requires_grad=True 的参数(即线性层的权重和偏置),这些参数将被优化器更新。学习率 lr 设置为 0.01。
  4. 训练模型:
    • 我们设置了一个训练循环,迭代 num_epochs 次。
    • model.train():将模型设置为训练模式。
    • 前向传播: outputs = model(X_train) 将训练数据 X_train 输入模型,得到预测值 outputs
    • 计算损失: loss = criterion(outputs, y_train) 计算预测值和真实值之间的损失。
    • 梯度清零: optimizer.zero_grad() 清除之前计算的梯度。这是非常重要的一步,因为 PyTorch 的梯度是累积的。
    • 反向传播: loss.backward() 触发 Autograd 计算损失相对于模型参数的梯度。计算出的梯度会存储在模型参数的 .grad 属性中。
    • 优化: optimizer.step() 根据参数的 .grad 属性和优化器的算法更新参数的值。
    • 每隔一定轮数,打印当前的损失值,以便观察训练过程。.item() 用于从单元素张量中提取 Python 数值。
  5. 评估模型:
    • model.eval():将模型设置为评估模式。
    • with torch.no_grad()::这个上下文管理器禁用梯度计算。在推理或评估阶段,我们不需要计算梯度,使用 torch.no_grad() 可以节省内存和计算资源。
    • model(X_train).numpy():再次进行前向传播,得到模型在训练数据上的预测值,并将其转换为 NumPy 数组以便可视化。
    • 打印训练后模型学习到的参数(权重和偏置),与真实值进行对比。
  6. 可视化结果: 使用 Matplotlib 将原始数据点和模型学习到的回归线绘制出来。

运行这段代码,你会看到损失值随着训练轮数逐渐下降,并且最终模型学习到的权重和偏置会非常接近真实的 a=2b=1,绘制出的回归线也会很好地拟合数据点。

第五部分:下一步学习

完成这个简单的线性回归例子后,你已经掌握了 PyTorch 的基本流程:数据准备、模型定义、损失函数、优化器和训练循环。接下来,你可以继续探索 PyTorch 的更多功能和更复杂的模型:

  • 卷积神经网络 (CNN): 学习如何使用 nn.Conv2d, nn.MaxPool2d 等构建图像处理模型。
  • 循环神经网络 (RNN/LSTM/GRU): 学习如何使用 nn.LSTM, nn.GRU 等处理序列数据。
  • Transformer: 学习注意力机制和 Transformer 模型。
  • 使用 GPU 加速: 将模型和数据移动到 GPU (.to('cuda')) 进行训练,以显著提高速度。
  • 数据加载和预处理: 学习如何定义更复杂的数据集 (Dataset) 和使用 DataLoader 进行批量处理。
  • 模型保存与加载: 学习如何保存和加载模型的参数或整个模型。
  • 迁移学习 (Transfer Learning): 利用预训练的模型解决你的任务。
  • PyTorch 生态系统: 探索 TorchVision, TorchText, PyTorch Lightning 等库。

第六部分:社区与资源

结论

PyTorch 是一个功能强大、灵活且易于使用的深度学习框架。其 Pythonic 的风格、动态计算图和强大的自动微分系统使其成为进行深度学习研究和开发的首选工具之一。通过本文的介绍和快速入门示例,你应该对 PyTorch 的核心概念和基本使用流程有了初步了解。

深度学习的旅程充满挑战和乐趣。掌握一个强大的框架是探索这一领域的关键一步。希望本文能为你打开 PyTorch 的大门,祝你在深度学习的世界里取得丰硕的成果!


发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部