📜  如何在 pytorch 中先做通道 (1)

📅  最后修改于: 2023-12-03 15:08:46.089000             🧑  作者: Mango

如何在 PyTorch 中先做通道

在深度学习任务中,我们通常需要对图像或视频的通道(channel)进行处理,如卷积神经网络(Convolutional Neural Network,CNN)中就使用了卷积层对图像的每个通道进行卷积操作。在 PyTorch 中,我们可以先对通道进行处理再输入网络进行训练,本文将介绍如何在 PyTorch 中先做通道处理。

1. 读取数据集并转换通道

首先,我们需要读取数据集并把图片的通道转换成我们需要的形式。在 PyTorch 中,可以使用 torchvision 库来读取常见数据集,如 MNIST、CIFAR10 等。我们可以使用 transforms 模块来进行图像的预处理,包括将图像转换为 tensor、调整尺寸、归一化等预处理操作。在进行通道处理时,需要使用 transforms.Lambda 对每个通道进行特定的处理。

import torchvision.transforms as transforms

# 转换通道的 lambda 函数
def channel_transform(x):
    # 对第一个通道进行处理,例如取反
    x[0] = 1 - x[0]
    return x

# 使用 transforms 进行预处理
transform = transforms.Compose([
    transforms.ToTensor(), # 将图像转换成 tensor
    transforms.Lambda(channel_transform), # 对每个通道进行处理
    transforms.Normalize((0.5,), (0.5,)) # 归一化
])

# 加载数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
2. 定义网络模型

在数据集准备好后,我们需要定义网络模型。在 PyTorch 中,我们可以使用 nn.Module 类来定义神经网络模型,该类是所有神经网络模型的基类。我们需要实现 forward 方法来定义网络的前向传递过程。

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()
3. 训练网络模型

数据集和网络模型准备好后,我们需要定义损失函数和优化器来进行网络的训练。在 PyTorch 中,我们可以使用 nn.CrossEntropyLoss 作为多分类问题的损失函数,使用 torch.optim.SGDtorch.optim.Adam 等常用优化器进行参数的优化。

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

然后我们可以进行模型的训练,这里仅给出训练的主要部分代码。我们需要将数据集分成 batch 进行训练,使用 trainloader 来迭代训练集。在每个 batch 的训练中,需要将输入数据和标签转换成 PyTorch 的 tensor,经过模型的前向传递、计算损失值、反向传播、更新梯度等步骤进行训练。在训练过程中,我们可以记录损失值和准确率等指标,并输出训练进度来进行监控。

for epoch in range(2):  # 多次迭代训练集
    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # 获取输入数据
        inputs, labels = data
        # 转换成 PyTorch 的 tensor
        inputs, labels = inputs.to(device), labels.to(device)
        # 将参数梯度置0,清除上一次累加的梯度
        optimizer.zero_grad()
        # 前向传递
        outputs = net(inputs)
        # 计算损失值
        loss = criterion(outputs, labels)
        # 反向传播
        loss.backward()
        # 更新梯度
        optimizer.step()

        # 统计损失值
        running_loss += loss.item()
        # 每 2000 个 batch 输出一次训练进度
        if i % 2000 == 1999:    
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0
4. 测试网络模型

在训练完成后,我们可以用测试集来测试网络模型的准确率。测试和训练的代码类似,只是不需要进行反向传播和参数更新操作。我们还需要统计测试集的准确率,并输出测试进度来进行监控。

correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        images, labels = images.to(device), labels.to(device)
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))

完整的代码见如下 markdown 代码片段。

```python
import torch
import torchvision
import torchvision.transforms as transforms
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

# 转换通道的 lambda 函数
def channel_transform(x):
    # 对第一个通道进行处理,例如取反
    x[0] = 1 - x[0]
    return x

# 使用 transforms 进行预处理
transform = transforms.Compose([
    transforms.ToTensor(), # 将图像转换成 tensor
    transforms.Lambda(channel_transform), # 对每个通道进行处理
    transforms.Normalize((0.5,), (0.5,)) # 归一化
])

# 加载数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

# 定义网络模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

# 训练网络模型
for epoch in range(2):  # 多次迭代训练集
    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # 获取输入数据
        inputs, labels = data
        # 转换成 PyTorch 的 tensor
        inputs, labels = inputs.to(device), labels.to(device)
        # 将参数梯度置0,清除上一次累加的梯度
        optimizer.zero_grad()
        # 前向传递
        outputs = net(inputs)
        # 计算损失值
        loss = criterion(outputs, labels)
        # 反向传播
        loss.backward()
        # 更新梯度
        optimizer.step()

        # 统计损失值
        running_loss += loss.item()
        # 每 2000 个 batch 输出一次训练进度
        if i % 2000 == 1999:    
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

# 测试网络模型
correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        images, labels = images.to(device), labels.to(device)
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))