当前位置: 首页 > news >正文

PyTorch的nn.Module类的详细介绍

       在PyTorch中,nn.Module 类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类。nn.Module 类提供了一系列属性和方法用于管理网络的结构和训练过程中的计算

1. PyTorch中nn.Module基类的定义

        在PyTorch中,nn.Module 是所有神经网络模块的基础类。尽管这里不能提供完整的源代码(因为它涉及大量内部逻辑和API细节),但我可以给出一个简化的 nn.Module 类的基本结构,并描述其关键方法:

Python
1# 此处简化了 nn.Module 的定义,实际 PyTorch 源码更为复杂
2import torch
3
4class nn.Module:
5    def __init__(self):
6        super().__init__()
7        # 存储子模块的字典
8        self._modules = dict()
9        # 参数和缓冲区的集合
10        self._parameters = OrderedDict()
11        self._buffers = OrderedDict()
12
13    def __setattr__(self, name, value):
14        # 特殊处理参数和子模块的设置
15        if isinstance(value, nn.Parameter):
16            # 注册参数到 _parameters 字典中
17            self.register_parameter(name, value)
18        elif isinstance(value, Module) and not isinstance(value, Container):
19            # 注册子模块到 _modules 字典中
20            self.add_module(name, value)
21        else:
22            # 对于普通属性,执行标准的 setattr 操作
23            object.__setattr__(self, name, value)
24
25    def add_module(self, name: str, module: 'Module') -> None:
26        r"""添加子模块到当前模块"""
27        # 内部实现细节省略...
28        self._modules[name] = module
29
30    def register_parameter(self, name: str, param: nn.Parameter) -> None:
31        r"""注册一个新的参数"""
32        # 内部实现细节省略...
33        self._parameters[name] = param
34
35    def parameters(self, recurse: bool = True) -> Iterator[nn.Parameter]:
36        r"""返回一个包含所有可学习参数的迭代器"""
37        # 内部实现细节省略...
38        return iter(getattr(self, '_parameters', {}).values())
39
40    def forward(self, *input: Tensor) -> Tensor:
41        r"""定义前向传播操作"""
42        raise NotImplementedError
43
44    # 还有许多其他的方法如:zero_grad、to、state_dict、load_state_dict 等等...
45
46# 在自定义模型时,继承 nn.Module 并重写 forward 方法
47class MyModel(nn.Module):
48    def __init__(self):
49        super(MyModel, self).__init__()
50        self.linear = nn.Linear(20, 30)
51
52    def forward(self, x):
53        return self.linear(x)

      这段代码定义了 PyTorch 中 nn.Module 类的基础结构。在实际的 PyTorch 源码中,nn.Module 的实现更为复杂,但这里简化后的代码片段展示了其核心部分。

  • class nn.Module::定义了一个名为 nn.Module 的类,它是所有神经网络模块(如卷积层、全连接层、激活函数等)的基类。

  • def __init__(self)::这是类的初始化方法,在创建一个 nn.Module 或其子类实例时会被自动调用。这里的 self 参数代表将来创建出的实例自身。

    • super().__init__():调用父类的构造函数,确保基类的初始化逻辑得到执行。在这里,虽然没有显示指定父类,但因为 nn.Module 是其他所有模块的基类,所以实际上它是在调用自身的构造函数来初始化内部状态。

    • self._modules = dict():声明并初始化一个字典 _modules,用于存储模型中的所有子模块。每个子模块是一个同样继承自 nn.Module 的对象,并通过名称进行索引。这样可以方便地管理和组织复杂的层次化网络结构。

    • self._parameters = OrderedDict():使用有序字典(OrderedDict)类型声明和初始化一个变量 _parameters,用来保存模型的所有可学习参数(权重和偏置等)。有序字典保证参数按添加顺序存储,这对于一些依赖参数顺序的操作(如加载预训练模型的权重)是必要的。

    • self._buffers = OrderedDict():类似地,声明并初始化另一个有序字典 _buffers,用于存储模型中的缓冲区(Buffer)。缓冲区通常是不参与梯度计算的变量,比如在 BatchNorm 层中存储的均值和方差统计量。

总结来说,这段代码为构建神经网络模型提供了一个基础框架,其中包含了对子模块、参数和缓冲区的管理机制,这些基础设施对于构建、运行和优化深度学习模型至关重要。在自定义模块时,开发者通常会在此基础上添加更多的层和功能,并重写 forward 方法以定义前向传播逻辑。

以上代码仅展示了 nn.Module 类的部分核心功能,实际上 PyTorch 官方的实现会更加详尽和复杂,包括更多的内部机制来支持模块化构建深度学习模型。开发者通常需要继承 nn.Module 类并重写 forward 方法来实现自定义的神经网络层或整个网络架构。

2. nn.Module类中的关键属性和方法

在PyTorch的nn.Module类中,有以下几个关键属性和方法:

  1. __init__(self, ...): 这是每个派生自 nn.Module 的类都必须重载的方法,在该方法中定义并初始化模型的所有层和参数。

  2. ._parameters 和 ._buffers:这是内部字典属性,分别储存了模型的所有参数和缓冲区,虽然不推荐直接操作,但在自定义模块时可能需要用到。

  3. .parameters():这是一个动态生成器,用于获取模型的所有可学习参数(权重和偏置等)。这些参数都是nn.Parameter类型的张量,在训练过程中可以自动计算梯度。

    示例:

    Python
    1for param in model.parameters():
    2    print(param)
  4. .buffers():类似于.parameters(),但返回的是模块内定义的非可学习缓冲区变量,例如一些统计量或临时存储数据。

  5. .named_parameters() 和 .named_buffers():与上面类似,但返回元组形式的迭代器,每个元素是一个包含名称和对应参数/缓冲区的元组,便于按名称访问特定参数。

  6. .children() 和 .modules():这两个方法分别返回一个包含当前模块所有直接子模块的迭代器和包含所有层级子模块(包括自身)的迭代器。

  7. .state_dict():该方法返回一个字典,包含了模型的所有状态信息(即参数和缓冲区),方便保存和恢复模型。

  8. state_dict() 和 load_state_dict(state_dict):用于保存和加载模型的状态字典,其中包括模型的权重和配置信息,便于模型持久化和迁移。

  9. .train() 和 .eval():方法用于切换模型的运行模式。在训练模式下,某些层如批次归一化层会有不同的行为;而在评估模式下,通常会禁用dropout层并使用移动平均统计量(对于批归一化层)。

  10. train(mode=True) 和 eval():切换模型的工作模式,在训练模式下会启用批次归一化层和丢弃层等依赖于训练/预测阶段的行为,在评估模式下则关闭这些行为。

  11. .to(device):将整个模型及其参数转移到指定设备上,比如从CPU到GPU。

  12. 其他内部维护的属性,如 _forward_pre_hooks 和 _forward_hooks 用于实现向前传播过程中的预处理和后处理钩子,以及 _backward_hooks 用于反向传播过程中的钩子,这些通常在高级功能开发时使用。

  13. forward(self, input):定义模型如何处理输入数据并生成输出,这是构建神经网络的核心部分,每次调用模型实例都会执行 forward 函数。

  14. add_module(name, module):将一个子模块添加到当前模块,并通过给定的名字引用它。

  15. register_parameter(name, param):注册一个新的参数到模块中。

  16. zero_grad():将模块及其所有子模块的参数梯度设置为零,通常在优化器更新前调用。

  17. 其他与模型保存和恢复相关的方法,例如 save(filename)load(filename) 等。

请注意,具体的属性和方法可能会随着PyTorch版本的更新而有所增减或改进。

3. nn.Module子类的定义和使用

       在PyTorch中,nn.Module 类扮演着核心角色,它是构建任何自定义神经网络层、复杂模块或完整神经网络架构的基础构建块。通过继承 nn.Module 并在其子类中定义模型结构和前向传播逻辑(forward() 方法),开发者能够方便地搭建并训练深度学习模型。

具体来说,在自定义一个 nn.Module 子类时,通常会执行以下操作:

  1. 初始化 (__init__):在类的初始化方法中定义并实例化所有需要的层、参数和其他组件。

    Python
    
    1class MyModel(nn.Module):
    2    def __init__(self, input_size, hidden_size, output_size):
    3        super(MyModel, self).__init__()
    4        self.layer1 = nn.Linear(input_size, hidden_size)
    5        self.layer2 = nn.Linear(hidden_size, output_size)
  2. 前向传播 (forward):实现前向传播函数来描述输入数据如何通过网络产生输出结果。

    Python
    
    1class MyModel(nn.Module):
    2    # ...
    3    def forward(self, x):
    4        x = torch.relu(self.layer1(x))
    5        x = self.layer2(x)
    6        return x
  3. 管理参数和模块

    • 使用 .parameters() 或 .named_parameters() 访问模型的所有可学习参数。
    • 使用 add_module() 添加子模块,并给它们命名以便于访问。
    • 使用 register_buffer() 为模型注册非可学习的缓冲区变量。
  4. 训练与评估模式切换

    • 使用 model.train() 将模型设置为训练模式,这会影响某些层的行为,如批量归一化层和丢弃层。
    • 使用 model.eval() 将模型设置为评估模式,此时会禁用这些依赖于训练阶段的行为。
  5. 保存和加载模型状态

    • 调用 model.state_dict() 获取模型权重和优化器状态的字典形式。
    • 使用 torch.save() 和 torch.load() 来保存和恢复整个模型或者仅其状态字典。
    • 通过 model.load_state_dict(state_dict) 加载先前保存的状态字典到模型中。

此外,nn.Module 还提供了诸如移动模型至不同设备(CPU或GPU)、零化梯度等实用功能,这些功能在整个模型训练过程中起到重要作用。

相关文章:

  • 【JavaEE进阶】 图书管理系统开发日记——贰
  • 正点原子--STM32中断系统学习笔记(2)
  • 【笔记】SPN和PLMN 运营商网络名称显示
  • 001集—shapefile(.shp)格式详解——arcgis
  • 面试中问到的算法题。————目录树生成
  • [力扣 Hot100]Day20 旋转图像
  • 趣学Python算法100例-1.2 兔子产子
  • STM32——智能小车
  • 【机器学习】贝叶斯垃圾邮件识别
  • 【Linux操作系统】:Linux开发工具编辑器vim
  • uniapp-app使用富文本编辑器editor
  • JSP和JSTL板块:第一节 JSP追根溯源 来自【汤米尼克的JAVAEE全套教程专栏】
  • 使用docker部署Kafka(MAC Apple M2 Pro)
  • 4D毫米波雷达——ADCNet 原始雷达数据 目标检测与可行驶区域分割
  • Iceberg从入门到精通系列之二十一:Spark集成Iceberg
  • C# 免费离线人脸识别 2.0 Demo
  • co.js - 让异步代码同步化
  • electron原来这么简单----打包你的react、VUE桌面应用程序
  • nginx(二):进阶配置介绍--rewrite用法,压缩,https虚拟主机等
  • React 快速上手 - 06 容器组件、展示组件、操作组件
  • React+TypeScript入门
  • React-Native - 收藏集 - 掘金
  • vue和cordova项目整合打包,并实现vue调用android的相机的demo
  • 动态魔术使用DBMS_SQL
  • 对话 CTO〡听神策数据 CTO 曹犟描绘数据分析行业的无限可能
  • 和 || 运算
  • 基于游标的分页接口实现
  • 开源中国专访:Chameleon原理首发,其它跨多端统一框架都是假的?
  • 聊聊flink的BlobWriter
  • 聊聊redis的数据结构的应用
  • 入口文件开始,分析Vue源码实现
  • 学习笔记DL002:AI、机器学习、表示学习、深度学习,第一次大衰退
  • 译自由幺半群
  • ​MySQL主从复制一致性检测
  • #我与Java虚拟机的故事#连载14:挑战高薪面试必看
  • (二) Windows 下 Sublime Text 3 安装离线插件 Anaconda
  • (二)七种元启发算法(DBO、LO、SWO、COA、LSO、KOA、GRO)求解无人机路径规划MATLAB
  • (附源码)spring boot网络空间安全实验教学示范中心网站 毕业设计 111454
  • (附源码)ssm跨平台教学系统 毕业设计 280843
  • (牛客腾讯思维编程题)编码编码分组打印下标题目分析
  • (转)甲方乙方——赵民谈找工作
  • (转载)hibernate缓存
  • (转载)微软数据挖掘算法:Microsoft 时序算法(5)
  • (状压dp)uva 10817 Headmaster's Headache
  • **python多态
  • .net core 6 redis操作类
  • .NET中使用Redis (二)
  • @angular/cli项目构建--Dynamic.Form
  • @Autowired自动装配
  • @FeignClient注解,fallback和fallbackFactory
  • @transactional 方法执行完再commit_当@Transactional遇到@CacheEvict,你的代码是不是有bug!...
  • [ 渗透工具篇 ] 一篇文章让你掌握神奇的shuize -- 信息收集自动化工具
  • [ASP.NET MVC]Ajax与CustomErrors的尴尬
  • [AutoSar]BSW_OS 02 Autosar OS_STACK
  • [CakePHP] 在Controller中使用Helper