当前位置: 首页 > news >正文

Google Research 推出高效的Prompt Tuning方法

人工智能咨询培训老师叶梓 转载标明出处

一般模型微调方法需要对预训练模型的所有参数进行调整,这在大规模模型中既耗时又耗资源。Google Research的研究团队提出了一种名为“Prompt Tuning”的方法,旨在通过学习“软提示”来调整冻结的语言模型,使其能够更好地完成特定的下游任务。这种方法不仅简单有效,而且在模型规模增大时,其性能逐渐接近全模型微调(Model Tuning)的效果。图2通过对比模型调整和提示调整在处理不同下游任务时的模型复制和推理方式,展示了提示调整在参数效率上的优势。

论文链接:https://arxiv.org/pdf/2104.08691

项目链接:https://github.com/google-research/text-to-text-transfer-transformer/

Prompt Tuning

Prompt Tuning基于T5的“text-to-text”方法,将所有任务视为文本生成任务。不同于传统的分类模型,它将分类任务建模为条件生成任务,其中输出Y是代表类别标签的标记序列。在T5中,分类被表示为,这里的θ是构成编码器和解码器的变换器的权重。

提示是向模型添加额外信息的方法,通常通过在输入X前添加一系列标记P来实现,以最大化正确Y的似然,同时保持模型参数θ不变。在GPT-3中,提示标记的表示是模型嵌入表的一部分,由冻结的θ参数化。

Prompt Tuning去除了提示必须由θ参数化的约束,而是拥有自己的专用参数,这些参数可以更新。这使得提示可以被视为一系列特殊标记,其嵌入是可学习的。新的条件生成表示为,并且可以通过反向传播来训练,只对​应用梯度更新。

设计决策:

  • 初始化提示表示:最简单的方法是随机初始化。更复杂的方法是从模型的词汇表中抽取嵌入来初始化每个提示标记。对于分类任务,还可以使用枚举输出类别的嵌入来初始化提示,类似于Schick和Schütze (2021)的“verbalizers”。
  • 提示长度:提示的长度是设计时需要考虑的另一个因素。提示越短,需要调整的新参数就越少。因此,研究者们旨在找到一种最短的提示,但仍然能够保持良好的性能。

与GPT-3等自回归语言模型不同,T5模型使用编码器-解码器架构,并在跨度腐败目标上进行预训练。T5的任务是“重建”输入文本中被掩盖的跨度,这些跨度用独特的哨兵标记标记。然而,研究者们认为这种设置可能不适合通过提示调整来控制冻结模型。因此,他们实验了三种不同的设置:(1)“Span Corruption”,(2)“Span Corruption + Sentinel”,(3)“LM Adaptation”。

研究者们在不同规模的预训练T5模型上构建了冻结模型,并在SuperGLUE基准上测量了性能。他们发现,随着模型规模的增加,Prompt Tuning的性能逐渐接近传统的模型微调方法。他们还发现,Prompt Tuning在跨领域任务中展现出更好的鲁棒性。

在比较不同调整技术时,研究者们发现Prompt Tuning在参数使用上非常高效。对于超过十亿参数的模型,Prompt Tuning只需要不到0.01%的任务特定参数。

想要掌握如何将大模型的力量发挥到极致吗?叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具。9月22日晚,实战专家1小时讲解让您轻松上手,学习如何使用 Llama Factory 微调模型。

加助理微信提供直播链接:amliy007,29.9元即可参加线上直播分享,叶老师亲自指导,互动沟通,全面掌握Llama Factory,关注享粉丝福利,限时免费CSDN听直播后的录播讲解。
 

LLaMA Factory 支持多种预训练模型和微调算法。它提供灵活的运算精度和优化算法选择,以及丰富的实验监控工具。开源特性和社区支持使其易于使用,适合各类用户快速提升模型性能。

实验

实验设置:

  • 使用不同规模的预训练T5模型(Small, Base, Large, XL, XXL)。
  • 使用额外训练了100K步的LM适应版本的T5,初始化使用类标签,并使用长度为100个标记的提示。
  • 在SuperGLUE基准上测量性能,这是一个包含八个具有挑战性的英语语言理解任务的集合。

实验结果:

图1展示了随着模型规模的增加,Prompt Tuning与模型微调的竞争力逐渐增强。在XXL规模(110亿参数)下,Prompt Tuning甚至与更强的多任务模型微调基线相匹配,尽管其任务特定参数少于20,000倍。

图3为超参数消融研究的结果:

提示长度(Prompt Length):对于大多数模型大小,将提示长度增加到超过单个标记对于实现良好性能至关重要。

提示初始化(Prompt Initialization):基于类的初始化在所有模型大小上表现最佳。

预训练目标(Pre-training Objective):LM适应在所有模型大小上都优于跨度腐败,即使在下游任务目标中添加了哨兵,XXL模型也能很好地工作。

图4展示了不同调整技术(Model Tuning, Prefix Tuning, WARP, Prompt Tuning, Prompt Design)的参数使用情况。Prompt Tuning在大多数模型大小下,只需要不到0.01%的任务特定参数。

这些结果表明,Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。

Prompt Tuning的参数效率与领域适应性

Prompt Tuning在参数效率和领域适应性方面展现出显著优势。通过与其他先进的技术如Prefix Tuning、WARP和P-tuning等进行比较,Prompt Tuning以其低于0.01%的任务特定参数需求,确立了其在大规模模型中的领先地位。

Prompt Tuning的核心在于将任务特定信息以提示的形式注入到模型的输入中,而不是调整模型的内部权重。这种方法允许模型在保持其对语言的一般理解的同时,针对特定任务调整其行为。与Prefix Tuning相比,Prompt Tuning不仅参数更少,还允许模型在处理输入时更新中间层的表示,这在处理不同领域数据时尤为重要。

在领域迁移的测试中,Prompt Tuning表现出了卓越的鲁棒性。通过在MRQA 2019共享任务和GLUE释义检测任务上的实验,研究者们发现Prompt Tuning在多数领域外数据集上超越了传统的模型调整方法。特别是在领域变化较大的情况,如从Wiki迁移到教科书或生物医学数据集时,Prompt Tuning的性能提升更为显著。

在SQuAD数据集上训练的模型在不同领域数据集上进行零样本领域迁移的性能。

Prompt Tuning在模型集成方面也展现了其独特的优势。与传统的模型集成相比,Prompt Tuning通过在同一任务上训练多个提示,创建了多个“虚拟模型”,这些模型共享相同的核心语言模型参数。这种方法不仅大大减少了存储和推理成本,还通过集成多个提示来提高模型的性能和不确定性估计。

尽管Prompt Tuning在连续嵌入空间中工作,使得提示的解释变得复杂,但研究者们通过分析提示标记与其词汇表中最近邻的相似性,发现学习到的提示确实形成了紧密的语义簇。这表明提示在学习过程中获得了类似单词的表示能力。特别是在使用类标签初始化提示时,这些标签往往会保留在最终学到的提示中,这为理解模型的行为提供了线索。

这项研究证明了Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。这对于大规模模型的部署和应用具有重要意义。

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • pointer-events: auto; 是一个 CSS 属性,
  • CSS基础:浮动(float)如何使用清楚以及代替方法
  • 使用CJson编写多个节点嵌套的程序代码
  • 尚品汇-延迟插件实现订单超时取消(四十五)
  • Markdown转换成公众号、知乎、今日头条格式,已开源
  • 已经30岁了,想转行从头开始现实吗?什么样的工作算好工作?
  • List 集合指定值升序降序排列Comparator实现
  • 【学习笔记】5G-A时代物联网应用及策略研究
  • C++设计模式——Template Method模板方法模式
  • Renesa Version Board开发RT-Thread 之Client(WIFI)和上位机的数据传输
  • 如何使用小乌龟清除认证缓存、还原版本、定位及常用开发工具集成
  • 中间件解析漏洞
  • 领衔登榜!凯伦股份入选2024年度市级工业设计中心名单
  • 【弱监督时间动作定位】Probabilistic Vision-Language Representation for WSTAL 论文阅读
  • VBA进行excel坐标转换
  • (十五)java多线程之并发集合ArrayBlockingQueue
  • [笔记] php常见简单功能及函数
  • 《剑指offer》分解让复杂问题更简单
  • Akka系列(七):Actor持久化之Akka persistence
  • ES10 特性的完整指南
  • js继承的实现方法
  • MySQL几个简单SQL的优化
  • Nacos系列:Nacos的Java SDK使用
  • Python语法速览与机器学习开发环境搭建
  • session共享问题解决方案
  • Spark in action on Kubernetes - Playground搭建与架构浅析
  • ubuntu 下nginx安装 并支持https协议
  • yii2中session跨域名的问题
  • 基于Android乐音识别(2)
  • 前端技术周刊 2018-12-10:前端自动化测试
  • 前端临床手札——文件上传
  • 十年未变!安全,谁之责?(下)
  • 网络应用优化——时延与带宽
  • 我的业余项目总结
  • 小程序button引导用户授权
  • No resource identifier found for attribute,RxJava之zip操作符
  • kubernetes资源对象--ingress
  • 通过调用文摘列表API获取文摘
  • ​14:00面试,14:06就出来了,问的问题有点变态。。。
  • ​Z时代时尚SUV新宠:起亚赛图斯值不值得年轻人买?
  • ​如何防止网络攻击?
  • ###STL(标准模板库)
  • (16)UiBot:智能化软件机器人(以头歌抓取课程数据为例)
  • (C语言)字符分类函数
  • (solr系列:一)使用tomcat部署solr服务
  • (STM32笔记)九、RCC时钟树与时钟 第一部分
  • (二)fiber的基本认识
  • (附源码)spring boot儿童教育管理系统 毕业设计 281442
  • (十一)c52学习之旅-动态数码管
  • (顺序)容器的好伴侣 --- 容器适配器
  • (一)认识微服务
  • (转)EXC_BREAKPOINT僵尸错误
  • (转)Linq学习笔记
  • .aanva
  • .halo勒索病毒解密方法|勒索病毒解决|勒索病毒恢复|数据库修复