当前位置: 首页 > news >正文

Pytorch学习 day09(简单神经网络模型的搭建)

简单神经网络模型的搭建

  • 针对CIFAR 10数据集的神经网络模型结构如下图:
    在这里插入图片描述
  • 由于上图的结构没有给出具体的padding、stride的值,所以我们需要根据以下公式,手动推算:
    • 注意:当stride太大时,padding也会变得很大,这不合理,所以stride从1开始推,dilation没有特殊说明为空洞卷积的话(默认为1)
      在这里插入图片描述
    • 第一个卷积层的padding、stride如下:
      在这里插入图片描述
  • 网络模型代码如下:
import torch.nn
from torch import nnclass Tudui(nn.Module):def __init__(self):super().__init__()self.conv1 = nn.Conv2d(3, 32, 5, 1, 2)self.maxpool1 = nn.MaxPool2d(2,2)self.conv2 = nn.Conv2d(32, 32, 5, 1, 2)self.maxpool2 = nn.MaxPool2d(2,2)self.conv3 = nn.Conv2d(32, 64, 5, 1, 2)self.maxpool3 = nn.MaxPool2d(2,2)self.flatten = nn.Flatten()# flatten也有层,跟torch.flatten()用法不一样,flatten层不会合并batch_size,只会将batch_size内的每个样本的数据展平,但是torch.flatten()会将整个输入数据展平,即会合并batch_sizeself.linear1 = nn.Linear(1024, 64)self.linear2 = nn.Linear(64, 10) # 为什么最后的输出是10,因为CIFAR10有10个类别,最后输出各类别的概率,取最大的那个概率对应的类别作为预测结果def forward(self, input):x = self.conv1(input)x = self.maxpool1(x)x = self.conv2(x)x = self.maxpool2(x)x = self.conv3(x)x = self.maxpool3(x)x = self.flatten(x)x = self.linear1(x)output = self.linear2(x)return outputtudui = Tudui()
# 通过ones()函数创建一个全1的tensor,作为输入数据,我们只需要指定输入数据的形状即可
# 我们可以通过ones()创建的简单输入,来检测网络的结构是否正确
input = torch.ones([64,3,32,32])
print(tudui)
output = tudui(input)
print(output.shape)  # 输出的shape为[64, 10],即每个样本的输出是10个类别的概率# 输出结果:
# Tudui(
#   (conv1): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#   (maxpool1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#   (conv2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#   (maxpool2): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#   (conv3): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#   (maxpool3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#   (flatten): Flatten(start_dim=1, end_dim=-1)
#   (linear1): Linear(in_features=1024, out_features=64, bias=True)
#   (linear2): Linear(in_features=64, out_features=10, bias=True)
# )
# torch.Size([64, 10])
  • 我们可以使用sequential来合并各种层,简化代码,如下:
import torch.nn
from torch import nnclass Tudui(nn.Module):def __init__(self):super().__init__()self.module1 = nn.Sequential(nn.Conv2d(3, 32, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Flatten(),nn.Linear(1024, 64),nn.Linear(64, 10))def forward(self, input):output = self.module1(input)return outputtudui = Tudui()
# 通过ones()函数创建一个全1的tensor,作为输入数据,我们只需要指定输入数据的形状即可
input = torch.ones([64,3,32,32])
print(tudui)
output = tudui(input)
print(output.shape)  # 输出的shape为[64, 10],即每个样本的输出是10个类别的概率# 输出结果:
# Tudui(
#   (module1): Sequential(
#     (0): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#     (1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#     (2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#     (3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#     (4): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
#     (5): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
#     (6): Flatten(start_dim=1, end_dim=-1)
#     (7): Linear(in_features=1024, out_features=64, bias=True)
#     (8): Linear(in_features=64, out_features=10, bias=True)
#   )
# )
# torch.Size([64, 10])
  • 也可以使用tensorboard来可视化模型,代码如下:
import torch.nn
from torch import nn
from torch.utils.tensorboard import SummaryWriterclass Tudui(nn.Module):def __init__(self):super().__init__()self.module1 = nn.Sequential(nn.Conv2d(3, 32, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2, 2),nn.Flatten(),nn.Linear(1024, 64),nn.Linear(64, 10))def forward(self, input):output = self.module1(input)return outputwriter = SummaryWriter('logs_seq')
tudui = Tudui()
# 通过ones()函数创建一个全1的tensor,作为输入数据,我们只需要指定输入数据的形状即可
input = torch.ones([64,3,32,32])
print(tudui)
output = tudui(input)
print(output.shape)  # 输出的shape为[64, 10],即每个样本的输出是10个类别的概率
writer.add_graph(tudui, input)  # 将模型和输入数据写入TensorBoard
writer.close()
  • 结果如下:
    在这里插入图片描述

相关文章:

  • 大模型产业落地,安全运营能否迎来“自动驾驶”时刻?
  • stable diffusion faceswaplab换脸插件报错解决
  • 【LLM】Advanced rag techniques: an illustrated overview
  • 论文导读:消费级大模型Yi (零一万物技术揭密)
  • LeNet5实战——衣服分类
  • RabbitMQ - 02 - 基本消息模型
  • vue中性能优化
  • Linux Docker安装redis缓存数据库
  • 怎么做加密文件二维码?分享文件更安全
  • 会话_过滤器_监听器笔记
  • 基于鳑鲏鱼优化算法(Bitterling Fish Optimization,BFO)的无人机三维路径规划
  • 大数据开发(Hadoop面试真题-卷四)
  • C++的一些基础语法
  • ARM基础----STM32处理器操作模式
  • 深度学习-Softmax 回归 + 损失函数 + 图片分类数据集
  • const let
  • ES6语法详解(一)
  • FineReport中如何实现自动滚屏效果
  • github指令
  • Hexo+码云+git快速搭建免费的静态Blog
  • HomeBrew常规使用教程
  • Java 内存分配及垃圾回收机制初探
  • JAVA并发编程--1.基础概念
  • Leetcode 27 Remove Element
  • Node项目之评分系统(二)- 数据库设计
  • Travix是如何部署应用程序到Kubernetes上的
  • 从0实现一个tiny react(三)生命周期
  • 多线程事务回滚
  • 理解 C# 泛型接口中的协变与逆变(抗变)
  • 让你的分享飞起来——极光推出社会化分享组件
  • 1.Ext JS 建立web开发工程
  • ​​​​​​​Installing ROS on the Raspberry Pi
  • # 日期待t_最值得等的SUV奥迪Q9:空间比MPV还大,或搭4.0T,香
  • $$$$GB2312-80区位编码表$$$$
  • (+4)2.2UML建模图
  • (13)[Xamarin.Android] 不同分辨率下的图片使用概论
  • (2)(2.10) LTM telemetry
  • (DFS + 剪枝)【洛谷P1731】 [NOI1999] 生日蛋糕
  • (阿里巴巴 dubbo,有数据库,可执行 )dubbo zookeeper spring demo
  • (附源码)计算机毕业设计大学生兼职系统
  • (力扣题库)跳跃游戏II(c++)
  • (续)使用Django搭建一个完整的项目(Centos7+Nginx)
  • (已解决)报错:Could not load the Qt platform plugin “xcb“
  • (转)ABI是什么
  • (转)winform之ListView
  • .cfg\.dat\.mak(持续补充)
  • .class文件转换.java_从一个class文件深入理解Java字节码结构
  • .NET 使用 ILMerge 合并多个程序集,避免引入额外的依赖
  • .Net 转战 Android 4.4 日常笔记(4)--按钮事件和国际化
  • .NET8.0 AOT 经验分享 FreeSql/FreeRedis/FreeScheduler 均已通过测试
  • .NET的微型Web框架 Nancy
  • .net与java建立WebService再互相调用
  • /etc/fstab和/etc/mtab的区别
  • @Autowired多个相同类型bean装配问题
  • @Responsebody与@RequestBody