Pytorch深度学习——用卷积神经网络实现MNIST数据集分类

目录

1 准备数据集

2 建立模型

3 构造损失函数+优化器

4 训练+测试

5 完整代码+运行结果


 选择下图结构的卷积神经网络来进行训练:

 

步骤:

  1. 选择 5 x 5 的卷积核,输入通道为 1,输出通道为 10:此时图像矩阵经过 5 x 5 的卷积核后会小两圈,也就是4个数位,变成 24 x 24,输出通道为10;
  2. 选择 2 x 2 的最大池化层:此时图像大小缩短一半,变成 12 x 12,通道数不变;
  3. 再次经过 5 x 5 的卷积核,输入通道为 10,输出通道为 20:此时图像再小两圈,变成 8 *8,输出通道为20;
  4. 再次经过 2 x 2 的最大池化层此时图像大小缩短一半,变成 4 x 4,通道数不变;
  5. 最后将图像整型变换成向量,输入到全连接层中:输入一共有 4 x 4 x 20 = 320 个元素,输出为 10.

具体代码如下:

1 准备数据集

# 准备数据集
batch_size = 64
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])
train_dataset = datasets.MNIST(root='../dataset/mnist/',
                               train=True,
                               download=True,
                               transform=transform)
train_loader = DataLoader(train_dataset,
                          shuffle=True,
                          batch_size=batch_size)
test_dataset = datasets.MNIST(root='../dataset/mnist',
                              train=False,
                              download=True,
                              transform=transform)
test_loader = DataLoader(test_dataset,
                         shuffle=False,
                         batch_size=batch_size)

2 建立模型

class Net(torch.nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=5)
        self.pooling = torch.nn.MaxPool2d(2)
        self.fc = torch.nn.Linear(320, 10)

    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x = F.relu(self.pooling(self.conv2(x)))
        x = x.view(batch_size, -1)
        x = self.fc(x)
        return x


model = Net()
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)

3 构造损失函数+优化器

criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)

4 训练+测试

def train(epoch):
    running_loss = 0.0
    for batch_idx, data in enumerate(train_loader, 0):
        inputs, target = data
        inputs,target=inputs.to(device),target.to(device)
        optimizer.zero_grad()

        outputs = model(inputs)
        loss = criterion(outputs, target)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        if batch_idx % 300 == 299:
            print('[%d,%.5d] loss:%.3f' % (epoch + 1, batch_idx + 1, running_loss / 2000))
            running_loss = 0.0

def test():
    correct=0
    total=0
    with torch.no_grad():
        for data in test_loader:
            inputs,target=data
            inputs,target=inputs.to(device),target.to(device)
            outputs=model(inputs)
            _,predicted=torch.max(outputs.data,dim=1)
            total+=target.size(0)
            correct+=(predicted==target).sum().item()
    print('Accuracy on test set:%d %% [%d%d]' %(100*correct/total,correct,total))

if __name__ =='__main__':
    for epoch in range(10):
        train(epoch)
        test()

5 完整代码+运行结果

import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim

# 准备数据集
batch_size = 64
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])
train_dataset = datasets.MNIST(root='../dataset/mnist/',
                               train=True,
                               download=True,
                               transform=transform)
train_loader = DataLoader(train_dataset,
                          shuffle=True,
                          batch_size=batch_size)
test_dataset = datasets.MNIST(root='../dataset/mnist',
                              train=False,
                              download=True,
                              transform=transform)
test_loader = DataLoader(test_dataset,
                         shuffle=False,
                         batch_size=batch_size)


class Net(torch.nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=5)
        self.pooling = torch.nn.MaxPool2d(2)
        self.fc = torch.nn.Linear(320, 10)

    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x = F.relu(self.pooling(self.conv2(x)))
        x = x.view(batch_size, -1)
        x = self.fc(x)
        return x


model = Net()
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)

criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)


def train(epoch):
    running_loss = 0.0
    for batch_idx, data in enumerate(train_loader, 0):
        inputs, target = data
        inputs,target=inputs.to(device),target.to(device)
        optimizer.zero_grad()

        outputs = model(inputs)
        loss = criterion(outputs, target)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        if batch_idx % 300 == 299:
            print('[%d,%.5d] loss:%.3f' % (epoch + 1, batch_idx + 1, running_loss / 2000))
            running_loss = 0.0

def test():
    correct=0
    total=0
    with torch.no_grad():
        for data in test_loader:
            inputs,target=data
            inputs,target=inputs.to(device),target.to(device)
            outputs=model(inputs)
            _,predicted=torch.max(outputs.data,dim=1)
            total+=target.size(0)
            correct+=(predicted==target).sum().item()
    print('Accuracy on test set:%d %% [%d%d]' %(100*correct/total,correct,total))

if __name__ =='__main__':
    for epoch in range(10):
        train(epoch)
        test()

运行结果如下:

 

 

<think>好的,用户想了解PCIe ATS TLP的格式细节,需要根据现有的参考资料和规范来回答。首先,我需要回顾一下PCIe的基本知识,特别是关于ATS(Address Translation Services)的部分。ATS允许设备进行地址转换,减少IOMMU的负担,提升性能。用户提到的TLP格式是关键,需要详细说明各个字段。 根据用户提供的引用,特别是引用[2]提到了PCIe Base Specification 5.0,应该参考这个版本来确保准确性。ATS TLP属于事务层数据包,所以需要明确其类型、字段结构以及用途。 首先,ATS请求和完成TLP的类型码。查找规范,ATS请求可能使用Msg类型或者带有特定格式的TLP。需要确认Type字段的值,比如Msg类型可能是01010xxxb,其中xxx区分不同的ATS消息类型,如地址转换请求或完成。然后,详细说明每个字段的作用,比如Requester ID、Address Translation Hint等。 另外,ATS的流程涉及设备发起请求,IOMMU处理并返回转换结果。需要解释整个流程,确保用户理解ATS的作用和TLP在其中的角色。同时,用户可能需要了解如何配置和使用ATS,或者相关的性能优势,但当前问题集中在格式细节上,所以重点放在TLP的结构上。 需要注意TLP的格式是否符合标准头标,是否有扩展字段,以及各个位的具体含义。例如,Format和Type字段如何组合,Attr字段的属性,TC(流量类别)等。还要确保引用的规范版本正确,避免过时的信息。 最后,生成相关问题时要围绕ATS的应用场景、配置方法、性能影响以及与IOMMU的交互,帮助用户进一步深入理解。需要确保问题相关且引导用户探索更多内容。</think>### PCIe ATS TLP格式详解 PCIe ATS(Address Translation Services)是PCIe规范中用于优化设备地址转换的机制,允许设备直接向IOMMU(输入输出内存管理单元)发起地址转换请求,从而减少DMA操作中的延迟[^1]。ATS通过特定的事务层数据包(TLP)实现通信,其格式需遵循PCIe规范定义的标准。 #### ATS TLP格式核心字段 ATS相关的TLP主要包括**地址转换请求(Translation Request)**和**地址转换完成(Translation Completion)**两种类型。以PCIe Base Specification 5.0为例,其格式关键字段如下: 1. **TLP Header(头标)** - **Type字段**:标识TLP类型。ATS请求的Type字段为`01010xxxb`(二进制),其中`xxx`区分具体ATS子类型(如请求或完成)[^2]。 - **Format字段**:定义TLP长度,ATS请求通常为4DW(双字)头标。 - **Requester ID**:发起请求的设备标识(Bus/Device/Function)。 - **Address Translation Hint (ATH)**:包含地址空间类型(如设备地址或IOVA)和转换属性。 2. **数据载荷(Payload)** - **输入地址**:待转换的设备地址(Device Address)。 - **请求属性**:如读写权限、缓存策略等。 3. **完成报文(Completion TLP)** - **Translated Address**:IOMMU返回的转换后物理地址。 - **状态码**:指示转换成功或失败原因(如权限不足)。 #### 典型ATS交互流程 1. 设备发送**ATS请求TLP**,包含待转换地址和属性。 2. IOMMU通过**ATS完成TLP**返回转换结果。 3. 设备缓存转换结果,后续DMA直接使用物理地址。 #### 规范引用 ATS详细定义可参考《PCI Express Base Specification Revision 5.0》第10.5节 "Address Translation Services" 。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学习CV的研一小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值