当前位置: 首页 > news >正文

神经网络模型实现(训练、测试)

目录

  • 一、神经网络骨架:
  • 二、卷积操作:
  • 三、卷积层:
  • 四、池化层:
  • 五、激活函数(以ReLU为例):
  • 六、模型搭建:
  • 七、损失函数、梯度下降:
  • 八、模型保存与加载:
  • 九、模型训练:
  • 十、模型测试:

一、神经网络骨架:

import torch
from torch import nn#神经网络
class CLH(nn.Module):def __init__(self):super().__init__()def forward(self, input):output=input+1return outputclh = CLH()
x = torch.tensor(1.0)
output = clh(x)
print(output)

二、卷积操作:

import torch
import torch.nn.functional as Finput = torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]
])
#卷积核
kernel = torch.tensor([[1,2,1],[0,1,0],[2,1,0]
])
#变化为卷积规定输入格式的维度:这里二维(x,y)转四维(t,z,x,y)
input = torch.reshape(input,(1,1,5,5))
kernel = torch.reshape(kernel,(1,1,3,3))#对输入矩阵的上下左右进行分别padding扩充1列0,执行一次stride步长为1的卷积
output = F.conv2d(input, kernel, stride=1, padding=1)
print(output)

运行结果:
在这里插入图片描述

执行过程:
在这里插入图片描述

三、卷积层:

卷积在神经网络中用于提取输入数据的特征,通过与卷积核进行卷积操作来实现特征的提取和学习。

import torchvision
from torch import nn
from torch.utils.data import DataLoader
import torch.nn.functional as Ftest_data = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=False)
#将数据划分为batch,每个batch有64个样本
dataloader = DataLoader(test_data,batch_size=64)#神经网络
class CLH(nn.Module):def __init__(self):super(CLH,self).__init__()#神经网络中设置一个卷积层,in_channels表示输入通道数,out_channels表示输出通道数,并且卷积核尺寸为3×3的随机矩阵self.conv1 = nn.Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)def forward(self,input):#对输入数据执行一次二维卷积return self.conv1(input)clh = CLH()#data是一个batch
for data in dataloader:imgs,targets = dataoutput = clh(imgs)#torch.Size([64, 3, 32, 32])表示[batchs大小,每个batch的通道数,每个通道x轴像素数,每个通道y轴像素数]print(imgs.shape)#torch.Size([64, 6, 30, 30])表示[batchs大小,每个batch的通道数,每个通道x轴像素数,每个通道y轴像素数]#其中每个通道由32×32像素变为30×30像素,其余的像素点组合成该batch的其他通道print(output.shape)

在这里插入图片描述

四、池化层:

最大池化的作用是为了保留特征同时将数据量缩小。
例如:1080p图像经过最大池化层变为720p。

import torch
from torch import nn
from torch.nn import MaxPool2d
#输入像素变为tensor类型
input = torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]
],dtype=torch.float32)
#变化为池化规定输入格式的维度:这里二维(x,y)转四维(t,z,x,y)
input = torch.reshape(input,(1,1,5,5))#神经网络
class CLH(nn.Module):def __init__(self):super(CLH,self).__init__()#神经网络中设置一个池化层,ceil_mode表示池化合覆盖输入数据不够时是否计算self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=True)def forward(self,input):#对输入数据执行一次最大池化操作return self.maxpool1(input)#创建神经网络
clh = CLH()output = clh(input)
print(output)

运行结果:
在这里插入图片描述

执行过程:
1

五、激活函数(以ReLU为例):

import torch
from torch import nn
from torch.nn import MaxPool2d, ReLU#输入像素变为tensor类型
input = torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]
],dtype=torch.float32)
#变化为池化规定输入格式的维度:这里二维(x,y)转四维(t,z,x,y)
input = torch.reshape(input,(1,1,5,5))#神经网络
class CLH(nn.Module):def __init__(self):super(CLH,self).__init__()#神经网络中设置一个激活函数self.relu = ReLU()def forward(self,input):#对输入数据执行一次最大池化操作return self.relu(input)#创建神经网络
clh = CLH()output = clh(input)
print(output)

运行结果:
在这里插入图片描述

六、模型搭建:

在这里插入图片描述
上面的卷积神经网络模型共有8个隐藏层(卷积层+池化层)和1个输出层。

from torch import nn
from torch.nn import Module
from torch.nn import Conv2d
from torch.nn import MaxPool2d, Flatten, Linear, Sequential
import torch# 神经网络
class CLH(nn.Module):def __init__(self):super(CLH, self).__init__()#搭建模型架构,模型会按顺序从上到下执行self.model1 = Sequential(#卷积层,提取特征Conv2d(3, 32, 5, padding=2),#最大池化层,减小数据维度,防止过拟合MaxPool2d(2),#卷积层Conv2d(32, 32, 5, padding=2),#最大池化层MaxPool2d(2),#卷积层Conv2d(32, 64, 5, padding=2),#最大池化层MaxPool2d(2),#展平层,将输入数据展平为一维Flatten(),#全连接(线性)层,输入1024长度的一维向量,学习输入数据的非线性关系,输出64的特征一维向量Linear(1024, 64),)def forward(self, x):x = self.model1(x)return xclh = CLH()
print(clh)
#构建一个全0的输入,batch大小64,三通道,宽高为32×32
input = torch.ones((64, 3, 32, 32))
output = clh(input)
print(output.shape)

输出结果:
在这里插入图片描述

七、损失函数、梯度下降:

from torch import nn
from torch.nn import Conv2d
from torch.nn import MaxPool2d,Flatten,Linear, Sequential
import torch
import torchvision
from torch.utils.data import DataLoader
#获取数据,CIFAR10是一个十分类数据集
dataset = torchvision.datasets.CIFAR10("./dataset",train= False, transform =torchvision.transforms.ToTensor(), download=False)
#切分数据为batch
dataloader = DataLoader(dataset, batch_size=1, drop_last=True)#神经网络模型搭建
class Tudui(nn.Module):def __init__(self):super(Tudui,self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32,64,5, padding=2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64, 10))def forward(self, x):x = self.model1(x)return xtudui = Tudui()#损失函数
loss = nn.CrossEntropyLoss()
#SGD(随机梯度下降)优化器,用于更新模型clh中的参数以最小化损失函数
optim = torch.optim.SGD(tudui.parameters(), lr=0.01)#每个batch(data)执行如下操作
for data in dataloader:#特征和真实标签值imgs, targets = data#训练结果outputs = tudui(imgs)#计算损失result_loss = loss(outputs, targets)#每轮训练梯度清零,避免梯度累积optim.zero_grad()#反向传播计算损失函数关于模型各个参数的梯度(偏导数)result_loss.backward()#根据梯度更新模型参数,使用梯度下降算法进行参数更新optim.step()print(result_loss)

运行结果:
在这里插入图片描述

八、模型保存与加载:

保存:

import torchvision
import torch
vgg16 = torchvision.models.vgg16(pretrained=False)
# 保存方式1--保存模型结构及模型参数
torch.save(vgg16,"vgg16_method1.pth")# 保存方式2--仅保存模型参数存为字典,不保存模型结构(官方推荐)
torch.save(vgg16.state_dict(),"vgg16_method2.pth")

读取:

import torch
import torchvision
# 保存方式1对应的加载模型结构 + 参数方式
model = torch.load("vgg16_method1.pth")
print(model)# 保存方式2对应的加载模型参数方式
model2 = torch.load("vgg16_method2.pth") #加载的是字典
print(model2)vgg16 = torchvision.models.vgg16(pretrained=False) #为方式2创建模型结构并加载参数的完整写法
vgg16.load_state_dict(torch.load("vgg16_method2.pth"))
print(vgg16)

九、模型训练:

在这里插入图片描述
上面的卷积神经网络模型共有8个隐藏层(卷积层+池化层)和1个输出层。

from torch.utils.tensorboard import SummaryWriterimport torch
import torchvision
import torch.nn as nn
from torch.utils.data import DataLoader# 定义训练的设备
device = torch.device("cuda")
# 准备训练集
train_data = torchvision.datasets.CIFAR10("./dataset", train=True, transform=torchvision.transforms.ToTensor(),download=True)
# 准备测试集
test_data = torchvision.datasets.CIFAR10("./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)
# len()获取数据集长度
train_data_size = len(train_data)
test_data_size = len(test_data)
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))# 利用dataloader加载数据集,一个batch包含64个图片样本
train_dataloader = DataLoader(train_data, batch_size=64, drop_last=True)
test_dataloader = DataLoader(test_data, batch_size=64, drop_last=True)# 创建网络模型,这里一般将网络模型单独定义一个文件
class CLH(nn.Module):def __init__(self):super(CLH, self).__init__()self.model = nn.Sequential(#卷积层nn.Conv2d(3, 32, 5, 1, 2),#最大池化层nn.MaxPool2d(2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2),#展平为一维nn.Flatten(),  # 展平后的序列长度为 64*4*4=1024#全连接层nn.Linear(1024, 64),nn.Linear(64, 10))def forward(self, x):x = self.model(x)return xclh = CLH()
#设置为GPU训练
clh = clh.to(device)# 损失函数
loss_fn = nn.CrossEntropyLoss()
loss_fn = loss_fn.to(device)# 优化器(梯度下降算法)对clh.parameters()中的参数进行更新
learning_rate = 1e-2
optimizer = torch.optim.SGD(clh.parameters(), lr=learning_rate)# 设置训练网络的一些参数
# 1.记录训练的次数
total_train_step = 0
# 2.记录测试的次数
total_test_step = 0
# 3.训练的轮数
epoch = 10# 添加tensorboard可视化结果
writer = SummaryWriter("../logs_train")#训练epoch轮
for i in range(epoch):print("-------------第 {} 轮训练开始------------".format(i + 1))# 训练步骤开始clh.train()#对于每个batch(data,包含64张图片)for data in train_dataloader:#获取batch中的样本和真实值标签imgs, targets = dataimgs = imgs.to(device)targets = targets.to(device)#该batch的训练结果output = clh(imgs)#计算该batch(data)上的损失loss = loss_fn(output, targets)# 优化器优化模型#梯度清零optimizer.zero_grad()#计算损失函数关于每个参数的梯度loss.backward()#梯度下降算法更新参数optimizer.step()total_train_step = total_train_step + 1print("训练次数:{}, Loss:{}".format(total_train_step, loss.item()))writer.add_scalar("train_loss", loss.item(), total_train_step)# 测试步骤开始(感觉更像验证,但是并没有更新一些学习率之类的参数,仅仅进行了测试)clh.eval()total_test_loss = 0total_accuracy = 0#设置禁止更新梯度,防止测试集更新模型参数with torch.no_grad():#对于测试集上的每个batch(data,包含64张图片)for data in test_dataloader:imgs, targets = dataimgs = imgs.to(device)targets = targets.to(device)#仅计算预测结果而不更新参数(torch.no_grad())outputs = clh(imgs)#计算该batch(data)上的损失loss = loss_fn(outputs, targets)#计算整个测试集上的损失total_test_loss = total_test_loss + loss.item()print("整个测试集上的Loss:{}".format(total_test_loss))writer.add_scalar("test_loss", total_test_loss, total_test_step)total_test_step = total_test_step + 1#每轮(epoch)训练完成后保存该轮的训练模型torch.save(clh, "clh_{}.pth".format(i))print("-------------第{}轮训练结束,模型已保存-------------".format(i + 1))writer.close()

部分执行结果:
在这里插入图片描述
在这里插入图片描述

十、模型测试:

import torchvision
from PIL import Image
import torch
#注意导入模型结构文件
from CLHmodule import *#获取测试样本
image_path = "./dog.png"
image = Image.open(image_path)
print(image)#将测试样本转换为模型规定的格式(和训练集样本尺寸要一样)
image = image.convert('RGB')
transform = torchvision.transforms.Compose([torchvision.transforms.Resize((32,32)),torchvision.transforms.ToTensor()])
image = transform(image)
print(image)
image = torch.reshape(image,(1,3,32,32))#加载模型
model = torch.load("clh_0.pth",map_location=torch.device("cuda"))
print(model)#执行预测
model.eval()
with torch.no_grad():image = image.to("cuda")output = model(image)
#预测结果,十分类结果为10个值的一维向量,表示各个分类上的可能性
print(output)
#输出可能性最大的结果
print(output.argmax(1))

输出结果:
在这里插入图片描述

相关文章:

  • 我的创作一周年纪念日
  • Spring Boot 中使用 Resilience4j 实现弹性微服务的简单了解
  • 自学鸿蒙HarmonyOS的ArkTS语言<十>@BuilderParam装饰器
  • ERROR: No matching distribution found for execjs
  • 《逻辑006:页面跳转并传参》
  • 麻省理工学院 - MIT - 线性代数学习笔记
  • 【linux】服务器安装NVIDIA驱动
  • 【React笔记初学总结一】React新手的学习流程笔记总结,掰开了揉碎了,下载安装基础结构学习
  • Nginx系列-8 allow与deny和error_page使用介绍
  • 达梦数据库(一)mysql2dm
  • Nvidia Isaac Sim代码编程 入门教程 2024(7)
  • HarmonyOS根据官网写案列~ArkTs从简单地页面开始
  • Spring中的IOC详解
  • docker安装指导
  • 【Day12】登录认证、异常处理
  • 自己简单写的 事件订阅机制
  • [ JavaScript ] 数据结构与算法 —— 链表
  • 10个最佳ES6特性 ES7与ES8的特性
  • Django 博客开发教程 8 - 博客文章详情页
  • IDEA常用插件整理
  • interface和setter,getter
  • Java 多线程编程之:notify 和 wait 用法
  • Nginx 通过 Lua + Redis 实现动态封禁 IP
  • php面试题 汇集2
  • V4L2视频输入框架概述
  • webpack入门学习手记(二)
  • 阿里云Kubernetes容器服务上体验Knative
  • 前端面试题总结
  • 强力优化Rancher k8s中国区的使用体验
  • 使用 Xcode 的 Target 区分开发和生产环境
  • 为视图添加丝滑的水波纹
  • 协程
  • 自制字幕遮挡器
  • hi-nginx-1.3.4编译安装
  • 国内开源镜像站点
  • ​linux启动进程的方式
  • #LLM入门|Prompt#1.7_文本拓展_Expanding
  • #Z2294. 打印树的直径
  • #每天一道面试题# 什么是MySQL的回表查询
  • (07)Hive——窗口函数详解
  • (1)Hilt的基本概念和使用
  • (13)Hive调优——动态分区导致的小文件问题
  • (20)docke容器
  • (cos^2 X)的定积分,求积分 ∫sin^2(x) dx
  • (C语言)共用体union的用法举例
  • (delphi11最新学习资料) Object Pascal 学习笔记---第7章第3节(封装和窗体)
  • (LeetCode 49)Anagrams
  • (补)B+树一些思想
  • (二十四)Flask之flask-session组件
  • (附源码)php投票系统 毕业设计 121500
  • (机器学习-深度学习快速入门)第一章第一节:Python环境和数据分析
  • (简单有案例)前端实现主题切换、动态换肤的两种简单方式
  • (三)uboot源码分析
  • (十六)Flask之蓝图
  • (四)模仿学习-完成后台管理页面查询