📅  最后修改于: 2023-12-03 15:08:46.089000             🧑  作者: Mango
在深度学习任务中,我们通常需要对图像或视频的通道(channel)进行处理,如卷积神经网络(Convolutional Neural Network,CNN)中就使用了卷积层对图像的每个通道进行卷积操作。在 PyTorch 中,我们可以先对通道进行处理再输入网络进行训练,本文将介绍如何在 PyTorch 中先做通道处理。
首先,我们需要读取数据集并把图片的通道转换成我们需要的形式。在 PyTorch 中,可以使用 torchvision
库来读取常见数据集,如 MNIST、CIFAR10 等。我们可以使用 transforms
模块来进行图像的预处理,包括将图像转换为 tensor
、调整尺寸、归一化等预处理操作。在进行通道处理时,需要使用 transforms.Lambda
对每个通道进行特定的处理。
import torchvision.transforms as transforms
# 转换通道的 lambda 函数
def channel_transform(x):
# 对第一个通道进行处理,例如取反
x[0] = 1 - x[0]
return x
# 使用 transforms 进行预处理
transform = transforms.Compose([
transforms.ToTensor(), # 将图像转换成 tensor
transforms.Lambda(channel_transform), # 对每个通道进行处理
transforms.Normalize((0.5,), (0.5,)) # 归一化
])
# 加载数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
在数据集准备好后,我们需要定义网络模型。在 PyTorch 中,我们可以使用 nn.Module
类来定义神经网络模型,该类是所有神经网络模型的基类。我们需要实现 forward
方法来定义网络的前向传递过程。
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
数据集和网络模型准备好后,我们需要定义损失函数和优化器来进行网络的训练。在 PyTorch 中,我们可以使用 nn.CrossEntropyLoss
作为多分类问题的损失函数,使用 torch.optim.SGD
或 torch.optim.Adam
等常用优化器进行参数的优化。
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
然后我们可以进行模型的训练,这里仅给出训练的主要部分代码。我们需要将数据集分成 batch 进行训练,使用 trainloader
来迭代训练集。在每个 batch 的训练中,需要将输入数据和标签转换成 PyTorch 的 tensor,经过模型的前向传递、计算损失值、反向传播、更新梯度等步骤进行训练。在训练过程中,我们可以记录损失值和准确率等指标,并输出训练进度来进行监控。
for epoch in range(2): # 多次迭代训练集
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# 获取输入数据
inputs, labels = data
# 转换成 PyTorch 的 tensor
inputs, labels = inputs.to(device), labels.to(device)
# 将参数梯度置0,清除上一次累加的梯度
optimizer.zero_grad()
# 前向传递
outputs = net(inputs)
# 计算损失值
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 更新梯度
optimizer.step()
# 统计损失值
running_loss += loss.item()
# 每 2000 个 batch 输出一次训练进度
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
在训练完成后,我们可以用测试集来测试网络模型的准确率。测试和训练的代码类似,只是不需要进行反向传播和参数更新操作。我们还需要统计测试集的准确率,并输出测试进度来进行监控。
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
images, labels = images.to(device), labels.to(device)
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
完整的代码见如下 markdown 代码片段。
```python
import torch
import torchvision
import torchvision.transforms as transforms
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
# 转换通道的 lambda 函数
def channel_transform(x):
# 对第一个通道进行处理,例如取反
x[0] = 1 - x[0]
return x
# 使用 transforms 进行预处理
transform = transforms.Compose([
transforms.ToTensor(), # 将图像转换成 tensor
transforms.Lambda(channel_transform), # 对每个通道进行处理
transforms.Normalize((0.5,), (0.5,)) # 归一化
])
# 加载数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
# 定义网络模型
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
# 训练网络模型
for epoch in range(2): # 多次迭代训练集
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# 获取输入数据
inputs, labels = data
# 转换成 PyTorch 的 tensor
inputs, labels = inputs.to(device), labels.to(device)
# 将参数梯度置0,清除上一次累加的梯度
optimizer.zero_grad()
# 前向传递
outputs = net(inputs)
# 计算损失值
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 更新梯度
optimizer.step()
# 统计损失值
running_loss += loss.item()
# 每 2000 个 batch 输出一次训练进度
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
# 测试网络模型
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
images, labels = images.to(device), labels.to(device)
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))