当前位置: 首页 > news >正文

rnn定义(rnn批次,核心思想理解)循环神经网络(递归)

rnn源码阅读方法:

点击去往后翻 注释都放在最后

也可以直接粘贴出来gpt解释

一rnn核心思想:

1.定义rnn模型

2.定义输入层

3.定义隐藏层(通过设置参数调整隐藏层层数) 初始隐藏状态需要与输入张量的大小相匹配,以便RNN能够正确地处理数据。

4定义输出层

代码演示:

def dm_rnn_for_base():# 创建一个RNN模型'''input_size:这是输入数据的维度。对于nn.RNN,它是一个标量,表示每个时间步的输入数据的维度。在这个例子中,input_size被设置为5。
hidden_size:这是RNN中隐藏层的大小。这个参数决定了网络能够学习的状态空间的大小。在这个例子中,hidden_size被设置为6。
num_layers:这是RNN中层的数量。每个层都包含一个或多个隐藏单元。在这个例子中,num_layers被设置为1,意味着只有一个隐藏层。:return:'''rnn = nn.RNN(5, 6, 1)# 创建一个随机输入张量,形状为(batch_size, sequence_length, input_size)# 在这个例子中,batch_size为1,sequence_length为3,input_size为5input = torch.randn(1, 3, 5)# 创建一个随机初始隐藏状态张量,形状为(num_layers, batch_size, hidden_size)# 在这个例子中,num_layers为1,batch_size为1,hidden_size为6h0 = torch.randn(1, 3, 6)# 使用RNN模型进行前向传播,输入为input,初始隐藏状态为h0# 输出为一个张量,包含所有时间步的输出,形状为(sequence_length, batch_size, hidden_size)# 隐藏状态张量hn包含了最后一个时间步的隐藏状态,形状为(num_layers, batch_size, hidden_size)output, hn = rnn(input, h0)# 打印输出张量和隐藏状态张量的形状和内容print('output', output.shape, output)print('hn', hn.shape, hn)# 打印RNN模型的详细信息print('rnn模型打印', rnn)

output, hn = rnn(input, h0)

返回值解释: 区别

output保存了每一行的输出 hn只保留了最后一个隐藏层输出

batch 和batch_size区别:

epoch=100

batch_size=5

那么batch=25(100/25)

batch_size=5

不用batch和batch_size区别:

逐个训练会占用更多的 时间

分批次会并行计算然后合并 更高效

注意事项:

nn.rnn和rnn 前向传播区别:

在PyTorch中,nn.RNN是一个类,它定义了RNN的计算图和前向传播操作。当你创建一个nn.RNN的实例时,你实际上并没有执行前向传播,只是定义了前向传播的计算图。前向传播是在你调用nn.RNN实例的forward方法时执行的。

在PyTorch中,所有的神经网络模块(如nn.RNN)都有一个forward方法,这个方法定义了网络的计算过程。当你使用rnn(input, h0)这样的形式调用nn.RNN实例的forward方法时,你才真正执行了前向传播。

因此,当你看到代码中出现rnn = nn.RNN(5, 6, 1)时,这行代码只是创建了一个nn.RNN的实例,并没有执行前向传播。真正执行前向传播的是output, hn = rnn(input, h0)这行代码。

两次执行前向传播的区别在于:

  1. 第一次执行(创建nn.RNN实例):这行代码定义了RNN的前向传播计算图,但并没有执行计算。
  2. 第二次执行(调用nn.RNN实例的forward方法):这行代码执行了前向传播,计算了输出和隐藏状态。

batch_first=true辨析

batch_first开启后层次更明了 rnn每一层保存一个单词第n个 多个层次后才结束

batch_first rnn每一层一个的单词的从开始到结束

默认值(batch_first=False):如果batch_first设置为False,则输入张量(torch.randn(1, 3, 5))的形状应该为(sequence_length, batch_size, input_size)。在这种情况下,RNN的forward方法会按时间步顺序处理序列数据,即首先处理序列的第一个元素,然后是第二个元素,依此类推。todo 一个单词的中的一个字母叫元素  love  word 处理顺序: l w   o o  v r
设置为True(batch_first=True):如果batch_first设置为True,则输入张量的形状应该为(batch_size, sequence_length, input_size)。
在这种情况下,RNN的forward方法会按批次顺序处理序列数据,即首先处理序列的第一个批次,然后是第二个批次,依此类推。todo 一个批次 所有单词处理完    love word 处理顺序  love word

当batch_first设置为True时,输入张量的形状应该是(batch_size, sequence_length, input_size);当batch_first设置为False时,输入张量的形状应该是(sequence_length, batch_size, input_size)。

所以true后要调整参数

RNN中批次处理问题:

无论是否分批次处理,RNN中的数据都是按照时间步顺序逐个处理的。

相关文章:

  • 「6.18福利」精选大厂真题|笔试刷题陪伴|明天正式开屋啦 - 打卡赢价值288元丰厚奖励
  • SQLite 日期 时间
  • 跟TED演讲学英文:Entertainment is getting an AI upgrade by Kylan Gibbs
  • Ollama:本地部署大模型 + LobeChat:聊天界面 = 自己的ChatGPT
  • 时区设置函数【man 3 tzset】
  • ✅生产问题之Emoji表情如何操作存储,MySQL是否支持
  • [C++] 从零实现一个ping服务
  • 中国平安:福布斯2024年全球企业2000强第29位 位列中国保险企业第1位
  • 垂直领域大模型微调最全指南
  • 无需配置MySQL,Navicat也有在线版了?
  • AcWing 477:神经网络 ← 拓扑排序+链式前向星
  • 从入门到精通:一步步打造稳定可靠的API服务
  • 学校还是专业?这些都不重要
  • PostgreSQL导出导出压缩文件大小
  • 活动集锦 | 英码科技积极参与行业盛会,AI赋能城市数字化转型
  • 【Leetcode】101. 对称二叉树
  • (十五)java多线程之并发集合ArrayBlockingQueue
  • 【跃迁之路】【669天】程序员高效学习方法论探索系列(实验阶段426-2018.12.13)...
  • Docker下部署自己的LNMP工作环境
  • IOS评论框不贴底(ios12新bug)
  • javascript面向对象之创建对象
  • mysql外键的使用
  • Python利用正则抓取网页内容保存到本地
  • uva 10370 Above Average
  • vue-cli在webpack的配置文件探究
  • 从零开始学习部署
  • 番外篇1:在Windows环境下安装JDK
  • 异常机制详解
  • zabbix3.2监控linux磁盘IO
  • ​必胜客礼品卡回收多少钱,回收平台哪家好
  • # windows 运行框输入mrt提示错误:Windows 找不到文件‘mrt‘。请确定文件名是否正确后,再试一次
  • ### RabbitMQ五种工作模式:
  • #define MODIFY_REG(REG, CLEARMASK, SETMASK)
  • #LLM入门|Prompt#1.8_聊天机器人_Chatbot
  • (6)STL算法之转换
  • (C语言版)链表(三)——实现双向链表创建、删除、插入、释放内存等简单操作...
  • (vue)el-cascader级联选择器按勾选的顺序传值,摆脱层级约束
  • (附源码)springboot工单管理系统 毕业设计 964158
  • (简单有案例)前端实现主题切换、动态换肤的两种简单方式
  • (每日一问)计算机网络:浏览器输入一个地址到跳出网页这个过程中发生了哪些事情?(废话少说版)
  • (免费领源码)python#django#mysql公交线路查询系统85021- 计算机毕业设计项目选题推荐
  • (七)理解angular中的module和injector,即依赖注入
  • (转)mysql使用Navicat 导出和导入数据库
  • (转)原始图像数据和PDF中的图像数据
  • .net core webapi 部署iis_一键部署VS插件:让.NET开发者更幸福
  • .NET 除了用 Task 之外,如何自己写一个可以 await 的对象?
  • .NET/C# 使窗口永不激活(No Activate 永不获得焦点)
  • .NET8 动态添加定时任务(CRON Expression, Whatever)
  • .net后端程序发布到nignx上,通过nginx访问
  • .net连接MySQL的方法
  • .Net中的设计模式——Factory Method模式
  • @cacheable 是否缓存成功_让我们来学习学习SpringCache分布式缓存,为什么用?
  • @ComponentScan比较
  • @ModelAttribute注解使用
  • @Transactional事务注解内含乾坤?