环球消息!30亿跑赢GPT-3的1750亿,谷歌新模型引热议,然而却把Hinton年龄搞错了

2022-10-24 15:59:41   来源:商业新知网

来源 | 机器之心

编辑| 泽南、小舟

【导读】 不增加算力需求,谷歌总结的指令微调方法能让 8000 万到 5400 亿参数的模型都显著提升性能。

人工智能一个重要的目标是开发泛化能力强的模型。在自然语言处理(NLP)领域中,预训练语言模型在这方面取得了重大进展。这类模型往往通过微调来适应新的任务。


【资料图】

近日,来自谷歌的研究者分析了多种指令微调方法,包括扩展对指令微调的影响。实验表明,指令微调确实可以根据任务数量和模型大小实现良好的扩展,最大到 5400 亿参数的模型都能明显受益,未来的研究应该进一步扩大任务的数量和模型的大小。此外,该研究还分析了微调对模型执行推理能力的影响,结果都是很吸引人的。

由此产生的 Flan-T5 对 1800 余种语言任务进行了指令微调,明显提高了提示和多步推理能力,30 亿参数跑基准就能超过 GPT-3 的 1750 亿参数。

看起来谷歌又为大模型找到了一个能力提升的方向。不过这一研究不仅引来了机器学习社区的欢迎,也有 Gary Marcus 的吐槽:

谷歌的模型为什么把谷歌自己的著名科学家 Geoffrey Hinton 的出生日期搞错了?人家明明是 1947 年出生的老前辈。

论文作者之一的谷歌大脑首席科学家 Quoc Le 赶紧出来圆场:是临时工图片做错了,在论文里 Flan-T5 模型其实没有把 Geoff 的出生年月搞错,有图为证。

顺便说一句,出生于 1963 年的著名 AI 学者是 Jürgen Schmidhuber。

既然出错的不是 AI 模型,让我们看看谷歌的新方法究竟能够为预训练模型带来哪些改变吧。

论文:Scaling Instruction-Finetuned Language Models

论文地址:https://arxiv.org/abs/2210.11416

公开模型:https://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints

该研究使用 540B 参数模型训练 Flan-PaLM,将微调任务的数量增加到 1800 个以上,并包含思维链(CoT;Wei et al., 2022b)数据。经过训练后的 Flan-PaLM 优于 PaLM,在多个基准测试中达到了新的 SOTA。在推理能力方面,Flan-PaLM 能够利用 CoT 和自洽性(self-consistency;Wang et al., 2022c)在大规模多任务语言理解(MMLU; Hendrycks et al., 2020)上实现 75.2% 的准确率。

此外,在一组具有挑战性的开放式生成问题上,Flan-PaLM 的表现明显优于 PaLM,可用性大幅提高。

总体而言,谷歌的这项研究阐明了使用指令微调来提高模型性能的具体方法。

方法

具体来说,该研究主要关注影响指令微调的几个方面,包括:(1)扩展任务数量,(2)扩展模型大小,以及(3)对思维链数据进行微调。

该研究发现具有上述方面的指令微调显著改进了各种模型类(PaLM、T5、U-PaLM)、prompting 设置(零样本、少样本、CoT)和评估基准(MMLU、BBH、 TyDiQA、MGSM、开放式生成)。例如,在 1.8K 任务上进行指令微调的 Flan-PaLM 540B 大大优于 PALM 540B(平均 + 9.4%)。Flan-PaLM 540B 在几个基准测试中实现了最先进的性能,例如在五次 MMLU 上达到 75.2%。

研究者还公开了 Flan-T5 检查点,即使与更大的模型(例如 PaLM 62B)相比,它也能实现强大的少样本性能。总体而言,指令微调是提高预训练语言模型的性能和可用性的通用方法。

图 1. 研究人员在 1800 余个任务中对各种语言模型进行了微调,在有 / 缺乏样本(零样本和少样本)以及有 / 没有思维链的情况下进行微调,从而能够在一系列评估场景中进行泛化。

图 2. 微调数据包括 473 个数据集、146 个任务类别和共计 1836 个任务。

在数据微调和程序微调过程完成后,研究者根据模型大小对任务的性能来对比规模扩展的影响。首先,对于所有三种模型大小,多任务指令微调与没有微调相比性能有很大提高,增益范围从 9.4% 到 15.5%。其次,增加微调任务的数量可以提高性能。

最后,我们可以看到将模型规模增加一个数量级(8B → 62B 或 62B → 540B)可以明显提高微调和未微调模型的性能。

多任务指令微调相对于模型大小(参数量)和微调任务数量及规模扩展对准确率的影响。

增加微调数据中的任务数量可以提高 Flan-PaLM 在大多数评估基准上的性能。

研究人员证明了在微调混合中包含九个带有思维链 (CoT) 注释的数据集可以提高推理能力。下表显示 Flan-PaLM 的 CoT 提示能力在四个保留的评估基准上优于 PaLM。

该研究发现对 CoT 数据进行指令微调的另外一个好处是可以实现零样本(zero-shot)推理,模型在没有针对 CoT 的少量样本的情况下就自行产生了推理能力,这可能需要大量工程调教才能正确实现。

图 6:PaLM 和 Flan-PaLM 在一组 23 个具有挑战性的 BIG-Bench 任务 (BBH) 上的 zero-shot 性能。Flan-PaLM 需要通过「让我们一步一步思考」指令激活的思想链 (CoT) 生成。

为了展示新方法的通用性,谷歌训练了 T5、PaLM 和 U-PaLM,涵盖了从 8000 万到 5400 亿参数的模型体量范围,发现所有模型都能大幅提升性能。

表 5. 指令微调 (Flan) 在其他持续预训练方法之上提高了性能。

经过测试,指令微调大大提高了所有模型类型的归一化平均性能,与非微调模型相比,T5 模型从指令微调中受益最多。这些结果对于某些基准测试来说是相当强的——例如,Flan-T5-XL 只有 30 亿参数,就达到了 47.6% 的 MMLU 分数,超过了 GPT-3 1750 亿参数的 43.9% 分数。

除了 NLP 基准之外,语言模型还能够为开放式问题请求生成长格式答案。在这一方面,标准的 NLP 基准和用于评估它们的自动指标不足以衡量人类的偏好。研究人员对此进行了评估,创建了一个包含 190 个示例的评估集。该评估集包括以零样本方式向模型提出的问题,涉及五个具有挑战性的类别,每个类别 20 个问题:创造力、上下文推理、复杂推理、计划和解释。

对于其中的 60 个示例(来自复杂的推理、计划和解释类别),该研究创建了一个带有思维链触发短语(例如,「让我们一步一步思考」)的变体,作为微调是否进行的另一个评估在 CoT 上启用 zero-shot。除了上述 160 个零样本输入之外,研究中还包括 30 个用于测试少样本能力的输入,这些没有指令微调的强语言模型已被证明在这些方面表现良好。

研究人员认为,指令微调和规模扩展均可以持续提升大语言模型性能,而微调对于推理能力至关重要,其还能泛化模型能力。通过指令微调与其他模型适应技术(例如 UL2R)结合,谷歌在这项工作中提出了最强模型 Flan-U-PaLM。

重要的是,指令微调并不像模型规模扩展一样会大幅增加计算成本,例如对于 PaLM 540B,指令微调只需要 0.2% 的预训练计算,但却可以将跨评估基准的归一化平均值提高 9.4%。使用指令微调的小型模型有时可以胜过没有微调的大模型。

出于这些原因,研究人员建议对几乎所有预训练的语言模型都进行指令微调。

关键词: 语言模型 推理能力

上一篇:
下一篇:
精彩阅读

环球消息!30亿跑赢GPT-3的1750亿,谷歌新模型引热议,然而却把Hinton年龄搞错了

热点

不增加算力需求,谷歌总结的指令微调方法能让8000万到5400亿参数的模型都显著提升性能。

【环球快播报】有赞、微盟“卷”向海外

热点

在品牌上,有赞和微盟在国内电商SaaS领域地位显著、口碑良好,打造了十分明显的品牌优势。

FORWARD V大会| “The Best Bits”合辑 (一):自动化的未来

热点

UiPath用户大会FORWARDV现已顺利结束。

折射率高达2.0,肖特RealView®光学玻璃赋能AR/MR

热点

具有高折射率的肖特RealView®玻璃晶圆是下一代AR MR头盔的关键组件。

那些移居小城镇的年轻人,后悔了吗?

热点

人生不止一条轨迹,也不止一个出口。

【新要闻】牵手科技护肤专家高姿,百胜软件E3全渠道中台让美更快一步

热点

随着项目启动会的圆满举行,各项工作也将顺利推进。

世界观热点:2022百胜软件ME3云中台星联伙伴加盟计划洽商会在成都举行

热点

满城桂香的金秋时节,谋思零售事业合作共进正当时。

每日热闻!玩转零售全渠道库存,不得不知的“四层库存”

热点

在消费者需求日益个性化的时代,全渠道一盘货是零售企业进行业务布局的战略所需。

当前简讯:从“数据”到“引擎”,蜂鸟视图室内外一体化解决方案全新升级

热点

当前,室内外空间数据和位置服务已成为各行各业生产经营活动数字化的重要组成部分。

财富

全球即时:融资丨「井英科技」完成数百万元种子+轮融资,紫竹小苗基金投资

资讯

融资丨「井英科技」完成数百万元种子+轮融资,紫竹小苗基金投资,本轮资金将用于人工智能(AI)技术和产品研发,以及场景化数字人的建模与扩展

融资丨「飞源新材」完成数亿元Pre-IPO轮融资,洪泰基金投资

资讯

融资丨「飞源新材」完成数亿元Pre-IPO轮融资,洪泰基金投资,本轮融资主要用于第四代新型环保制冷剂及锂电新材料项目建设。

解锁全民健身新玩法,飞镖如何成为室内运动之王?

资讯

解锁全民健身新玩法,飞镖如何成为室内运动之王?,青少年成为了国内飞镖运动发展的主力军。

每日播报!3年4省200店,烘焙版“华莱士”能行吗?

资讯

3年4省200店,烘焙版“华莱士”能行吗?,烘焙下沉,没那么容易。

Stadia关停在即,云游戏的风口停了?

资讯

Stadia关停在即,云游戏的风口停了?,时至今日,云游戏还需要继续摸索。

快手与淘宝重新合作,谁更需要谁?

资讯

快手与淘宝重新合作,谁更需要谁?,快手需要补充短板,淘宝则需要更多外部流量

不必高估抖音图文

资讯

不必高估抖音图文,从内容出发,抖音闭环的终极想象是什么?

全球聚焦:罗永浩,拆了抖音的墙

资讯

罗永浩,拆了抖音的墙,大主播依赖症,早该治治了。

看点:死磕电商,小红书拔草难?

资讯

死磕电商,小红书拔草难?,小红书瞄准电商的“拔草”生意,电商巨头也在围剿小红书的“种草”生意。

全球观天下!蔚来回应换电站是否有辐射;iPhone15 Ultra或将采用钛金属外壳;大乐透北京单票中奖1.66亿元丨邦早报

资讯

蔚来回应换电站是否有辐射;iPhone15Ultra或将采用钛金属外壳;大乐透北京单票中奖1 66亿元丨邦早报,24小时创投大事

【环球快播报】有赞、微盟“卷”向海外

在品牌上,有赞和微盟在国内电商SaaS领域地位显著、口碑良好,打造了十分明显的品牌优势。

FORWARD V大会| “The Best Bits”合辑 (一):自动化的未来

UiPath用户大会FORWARDV现已顺利结束。

折射率高达2.0,肖特RealView®光学玻璃赋能AR/MR

具有高折射率的肖特RealView®玻璃晶圆是下一代AR MR头盔的关键组件。

那些移居小城镇的年轻人,后悔了吗?

人生不止一条轨迹,也不止一个出口。

【新要闻】牵手科技护肤专家高姿,百胜软件E3全渠道中台让美更快一步

随着项目启动会的圆满举行,各项工作也将顺利推进。

苹果举行主题为超前瞻秋季新品发布会 AirPodsPro2正式登场

北京时间9月8日凌晨,苹果举行主题为超前瞻的秋季新品发布会,在此次发布会上,备受关注的iPhone 14系列新机、新款Apple Watch Ultra以

微软正为Windows12开发新驱动框架 提升新老显卡性能

Windows 12系统可能会在2024年到来,按照正常的节奏,其开发工作应该早已秘密进行。日前,有开发者从Windows 11最新预览版Build 25188中

华盛顿地铁站首次亮相为视障人士扩展旅行路线

5月25日消息,一款旨在帮助视障人士或盲人行人使用公共交通工具的应用程序在华盛顿地铁站首次亮相。该应用程序名为Waymap,旨在为盲人和视

2022年情况又要变了!华硕高管:今年PC恐怕要供过于求

这两年来,由于疫情导致的居家办公及远程教育需求爆发,一直在下跌的PC市场枯木逢春,2021年更是创下了2012年以来的最快增长,然而2022年情

垃圾佬的心头好!西数新款固态盘SN740曝光

对于DIY垃圾佬来说,散片、拆机件、工包……这些名词怕是并不陌生。本周,西数推出了主要供应OEM厂商的新款固态盘SN740。SN740升级到了第五

虚假宣传、误导消费者 倍至冲牙器关联公司被处罚

后来者要想在激烈的市场竞争中立足,如果可以背靠巨头享受大树底下好乘凉的红利,那自然是皆大欢喜,没有这个福气,也大可凭借自己一步一个