当前位置: 首页 > news >正文

LoRA微调模型结构可训参数和配置详解

LoRA微调模型结构可训参数和配置详解

背景

上一篇主要整理了一些关于LoRA的知识点总结,本文则主要从以下几方面继续学习分析LoRA微调策略。上篇 LoRA常见知识点。

测试内容和代码

1、构建一个简单的两层线性网络,加relu激活函数,在第一层Linear中使用LoRA策略,打印看下模型结构。复习Lora在第一层Lnear网络的结构,即在第一层旁增加lora策略。

2、打印原始网络结构中可训练的参数和LoRA策略下的参数量。

3、LoraConfig类的一些参数解释。

整体代码如下:

import torch
import torch.nn as nn
from peft import get_peft_model, LoraConfig# 定义基础模型
class SimpleMLP(nn.Module):def __init__(self):super(SimpleMLP, self).__init__()self.fc1 = nn.Linear(10, 20)self.relu = nn.ReLU()self.fc2 = nn.Linear(20, 2)def forward(self, x):x = self.fc1(x)x = self.relu(x)x = self.fc2(x)return xdef count_parameters(model):"""计算可训练的参数"""for name, param in model.named_parameters():if param.requires_grad:# 打印具体的参数名称和形状print(f"{name}: {param.size()}")# 可训练参数总量return sum(p.numel() for p in model.parameters() if p.requires_grad)model = SimpleMLP()
print(f"原始的网络结构:\n {model}")
print(f"原始模型的参数量:{count_parameters(model)}")# Lora 配置
config = LoraConfig(r=4,lora_alpha=16,lora_dropout=0.1,target_modules=["fc1"],
)# Lora策略
model = get_peft_model(model, config)print(f"Lora微调的网络结构:\n {model}")
print(f"增加Lora策略的,模型参数量:{count_parameters(model)}")

网络、参数和配置分析

1、网络结构如下:可以看出在fc1旁增加了两个没有偏置的额外矩阵lora_A和lora_B

原始的网络结构:SimpleMLP((fc1): Linear(in_features=10, out_features=20, bias=True)(relu): ReLU()(fc2): Linear(in_features=20, out_features=2, bias=True)
)
Lora微调的网络结构:PeftModel((base_model): LoraModel((model): SimpleMLP((fc1): Linear(in_features=10, out_features=20, bias=True(lora_dropout): ModuleDict((default): Dropout(p=0.1, inplace=False))(lora_A): ModuleDict((default): Linear(in_features=10, out_features=4, bias=False))(lora_B): ModuleDict((default): Linear(in_features=4, out_features=20, bias=False))(lora_embedding_A): ParameterDict()(lora_embedding_B): ParameterDict())(relu): ReLU()(fc2): Linear(in_features=20, out_features=2, bias=True)))
)

2、参数量如下:

原始模型可训练参数量。
计算方式:权重 + 偏置  20 × 10 + 20 + 2 × 20 + 2 = 262 计算方式:权重+偏置 \ 20 \times 10 + 20 +2 \times 20 + 2=262 计算方式:权重+偏置 20×10+20+2×20+2=262

fc1.weight: torch.Size([20, 10])
fc1.bias: torch.Size([20])
fc2.weight: torch.Size([2, 20])
fc2.bias: torch.Size([2])
原始模型的参数量:262

LoRA策略下始模型可训练参数,在已有的预训练模型中,LoRA会冻结其他所有参数,微调target_modules列表中指定的某些层的参数量。由于此例中指定target_modules=[“fc1”],所以LoRA策略下整个模型可训练参数量为
4 × 10 + 20 × 4 = 120 ( 网络结构中偏置为 F a l s e ) 4 \times 10 + 20 \times 4 = 120 \ (网络结构中偏置为False) 4×10+20×4=120 (网络结构中偏置为False)

base_model.model.fc1.lora_A.default.weight: torch.Size([4, 10])
base_model.model.fc1.lora_B.default.weight: torch.Size([20, 4])
增加Lora策略的,模型参数量:120

3、LoraConfig类初始化参数说明:

config = LoraConfig(r=4,lora_alpha=16,lora_dropout=0.1,target_modules=["fc1"],
)

核心超参数:

  • r=4 LoRA模型中新增加的权重矩阵的秩。

  • lora_alpha=16 控制LoRA模块中缩放因子的大小,default=8 (peft==0.5.0)。

  • lora_dropout=0.1 LoRA模块中的dropout。

lora_alpha参数解释如下:
假设原始权重矩阵为 W , L o R A 引入的低秩矩阵为 A 和 B ,则新的权重矩阵 W ′ 可以表示为: W ′ = W + α ⋅ A B 其中: W 是原始权重矩阵 A 和 B 是 L o R A 额外权重矩阵 α 是缩放因子,即 l o r a _ a l p h a 假设原始权重矩阵为 \mathbf{W},LoRA 引入的低秩矩阵为 \mathbf{A} 和 \mathbf{B},则新的权重矩阵 \mathbf{W'} 可以表示为:\\ \mathbf{W'} = \mathbf{W} + \alpha \cdot \mathbf{A} \mathbf{B}\\ 其中:\\ \mathbf{W} 是原始权重矩阵\\ \mathbf{A}和 \mathbf{B}是LoRA额外权重矩阵 \\ \alpha 是缩放因子,即 lora\_alpha\\ 假设原始权重矩阵为WLoRA引入的低秩矩阵为AB,则新的权重矩阵W可以表示为:W=W+αAB其中:W是原始权重矩阵ABLoRA额外权重矩阵α是缩放因子,即lora_alpha

至于为什么缩放因子不是一个0到1的小数?

如果lora_alpha设置为一个较小的值(如介于 0 到 1 之间),那么缩放因子 α \alpha α也会非常小,这会导致 LoRA 更新矩阵的影响变得非常微弱,从而可能无法有效调整模型。

留个问题

如果说LoraConfig配置是这样的:

config = LoraConfig(r=4,lora_alpha=16,lora_dropout=0.1,target_modules=["fc1", "fc2"],
)
# Lora技术
model = get_peft_model(model, config)
print(f"Lora微调的网络结构:\n {model}")
print(f"增加Lora策略的,模型参数量:{count_parameters(model)}")

打印结果如下:

base_model.model.fc1.lora_A.default.weight: torch.Size([4, 10])
base_model.model.fc1.lora_B.default.weight: torch.Size([20, 4])
base_model.model.fc2.lora_A.default.weight: torch.Size([4, 20])
base_model.model.fc2.lora_B.default.weight: torch.Size([2, 4])

可以发现,fc1和gc2都是用的同一个超参r=4,而且dropout也都是0.1。

如何修改LoraConfig使得fc1和fc2中的超参不同呢?

计划放在LoRA的实战训练和推理中解决这个问题,到时候再来比较一下两种策略差异。

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • SpringBoot 拦截请求打印日志
  • 读书笔记--阅读费孝通先生一生学术历程的记录与感悟
  • docker基础知识-docker0网桥
  • [建模已更新]2024数学建模国赛高教社杯A题:“板凳龙” 闹元宵 思路代码文章助攻手把手保姆级
  • 对接后端download接口报未知异常错误
  • Java语言程序设计基础篇_编程练习题**17.21 (十六进制编辑器)
  • 牛客小白月赛99题解(BFS、欧拉筛、完全背包、离散化、树状数组、二分查找)
  • 【计算机网络】socket编程 几个网络命令
  • LeetCode 每日一题 2024/9/2-2024/9/8
  • 数据结构中抽象数据类型如何实现?
  • python实现RPC算法
  • Android 优雅封装Glide
  • Iceberg与SparkSQL整合DDL操作
  • el-table使用type=“expand”根据数据条件隐藏展开按钮
  • Ceph集群维护相关操作
  • hexo+github搭建个人博客
  • SegmentFault for Android 3.0 发布
  • 【391天】每日项目总结系列128(2018.03.03)
  • 【React系列】如何构建React应用程序
  • extjs4学习之配置
  • GitUp, 你不可错过的秀外慧中的git工具
  • leetcode386. Lexicographical Numbers
  • PHP那些事儿
  • 订阅Forge Viewer所有的事件
  • 通信类
  • 我的业余项目总结
  • 正则表达式小结
  • 如何用纯 CSS 创作一个货车 loader
  • ​一些不规范的GTID使用场景
  • # .NET Framework中使用命名管道进行进程间通信
  • # Java NIO(一)FileChannel
  • #绘制圆心_R语言——绘制一个诚意满满的圆 祝你2021圆圆满满
  • (4.10~4.16)
  • (html5)在移动端input输入搜索项后 输入法下面为什么不想百度那样出现前往? 而我的出现的是换行...
  • (iPhone/iPad开发)在UIWebView中自定义菜单栏
  • (Oracle)SQL优化技巧(一):分页查询
  • (八)Flink Join 连接
  • (二十六)Java 数据结构
  • (二十五)admin-boot项目之集成消息队列Rabbitmq
  • (一) 初入MySQL 【认识和部署】
  • (一)Spring Cloud 直击微服务作用、架构应用、hystrix降级
  • (一)基于IDEA的JAVA基础12
  • (转)C#开发微信门户及应用(1)--开始使用微信接口
  • ***汇编语言 实验16 编写包含多个功能子程序的中断例程
  • .desktop 桌面快捷_Linux桌面环境那么多,这几款优秀的任你选
  • .Net - 类的介绍
  • .NET I/O 学习笔记:对文件和目录进行解压缩操作
  • .NET MVC第五章、模型绑定获取表单数据
  • .NET高级面试指南专题十一【 设计模式介绍,为什么要用设计模式】
  • .NET构架之我见
  • .Net面试题4
  • .net通用权限框架B/S (三)--MODEL层(2)
  • @antv/g6 业务场景:流程图
  • @property @synthesize @dynamic 及相关属性作用探究
  • [ 代码审计篇 ] 代码审计案例详解(一) SQL注入代码审计案例