继今年5月发布首款拥有1000亿参数的大型机型OPT—175B之后,Meta又推出了升级版OPT—IML这次有什么改进
今年5月,MetaAI正式宣布发布基于1750亿个参数的超大型模型OPT—175B,同样对所有社区免费。
日前,该模型的更新版本OPT—IML正式上市Meta表示,它已经微调了2000项语言任务,包括1750亿个参数,并将免费用于非商业研究目的
这款更新的OPT—IML性能如何我们来看看最后两张图
这款OPT—IML创造了两种型号,分别为30B和175B。
与旧的OPT模型相比,OPT—IML在14个标准NLP评测任务中的平均性能优于OPT。
这两个模型的规模在零时间学习任务中分别优于7%,在32发任务中分别优于4%和0.4%。
在这项研究中,研究人员描述了增加模型和基准大小如何影响指令调整决策对下游任务性能的影响。
为此,他们开发了OPT—IML Bench,这是一个相当大的指令学习基准,包含2000个NLP任务,根据现有的八个基准划分任务类别。
为了训练OPT—IML 30B和175B,研究人员首先从该框架的角度提出了他们对OPT—30B的指令调优决策的意见。
OPT—IML在四个具有不同目标和输入格式的评估基准的两个尺度上展示了所有三种归纳技能。
它不仅在所有基准测试中显著优于OPT,而且以极具竞争力的方式优于针对该特定基准优化的现有模型。
另外OPT—IML已经开源,Github链接边肖也放在下面~
接下来,让我们通过报纸了解一下IML期权。
大语言模型的指令微调已经成为零样本,少样本情况下增强其泛化能力的有效方法在这项研究中,Meta研究人员对指令微调进行了三项重要的补充
首先,他们编制了一个大规模指令微调基准,其中包含来自八个数据集的2000个NLP任务,按任务类型分类。
研究人员在该基准上选择性地构建评估拆分,以测试三种不同类型模型的泛化能力:
包括来自完整预订类别的任务,来自已见类型的搁置任务和来自已见任务的搁置实例。
指令微调
对模型进行微调,使其与指令一致,是目前机器学习的研究方向之一。
有两种方法可以微调指令一种侧重于通过使用人工注释指令和反馈来微调各种任务的模型,另一种侧重于通过注释或自动地向可公开访问的基准和数据集添加指令
在这项研究中,Meta AI成员专注于第二种技术,并汇编了许多公共可访问的数据集,包括改善OPT的方法。
在研究过程中,Meta成员使用了来自四个基准的1836个任务,并提出了一个类似的扩展方法最后,在调整整个测试以突破具有挑战性的外部基准性能限制的同时,研究人员描述了可能影响下游性能的各种指令调整策略的权重
多任务学习
多任务学习是基于教学的微调的一种表现。
MTL是一种流行的范式,当与共享可比参数或表示的相似函数相结合时,它可以提高任务的泛化性能。
最近几年来,MTL已被应用于许多NLP场景,主要集中在通过使用来自相关活动的信号来提高训练任务或新领域的性能。
相比之下,基于指令的微调有助于我们提高前所未有的问题的泛化性能它是通过指示所有任务组合成一个概念,并通过将模型的权重分配给所有任务来一起训练它们来实现的
什么是OPT。
大规模语言模型,即超过1000亿个参数的自然语言处理系统,在过去几年里改变了NLP和AI研究。
这些模型经过了大量不同文本的训练,显示出令人惊讶的新能力他们可以生成创造性的文本,解决基本的数学问题,回答阅读理解问题等等
虽然在某些情况下,公众可以通过付费的API与这些模型进行交互,但对研究的完全访问仍然局限于少数资源丰富的实验室。
这种受限的访问限制了研究人员理解这些大型语言模型如何以及为什么工作的能力,并阻碍了已知问题的进展,如提高它们的鲁棒性和减少偏见。
出于对开放科学的承诺,Meta AI在今年5月发布了Open Pretrained Transformer,这是一个拥有1750亿个参数的模型,并在公共数据集上进行训练Meta AI之所以分享这个模型,是希望有更多的社区参与了解关于大模型的基础技术
简单来说,Meta向公众开放人工智能研究中使用的大规模语言模型的访问权限,从而实现人工智能在大规模模型研究中的民主化。
与旧版本相比
根据Meta发布的IML版本,它经过了微调,在自然语言任务上的表现优于旧的OPT版本。
典型的语言任务包括回答问题,总结课文和翻译。
为了进行微调,研究人员使用了大约2000项自然语言任务这些任务分为八个NLP基准,也是由研究人员提供的
平均来说,以模型30B和175B为例,OPT—IML提高了OPT的零阶学习精度约6—7%在32项研究中,有300亿个参数的模型精度显著提高,有1750亿个参数的模型精度略有提高
经过比较,Meta团队发现OPT—IML在所有基准测试中的性能都优于OPT,在零样本和少样本的学习精度方面,也比其他基于指令微调的模型更具竞争力。
参考资料:
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。