中国金融网 加入收藏    设为首页
首页
国内资讯社会财经科技教育时尚娱乐房产家居汽车母婴健康商业区块链生活企业传媒区域经济旅游体育
您现在的位置:首页 > 财经 > 正文
算数能力接近满分,新加坡国立大学发布Goat,仅用70亿参数,起步支持1
2023-06-07 11:47      来源:IT之家      编辑:樊华      阅读量:12515   

语言模型终于会乘除法了!

大规模语言模型虽然在各大自然语言处理任务上都展现了优越的性能,不过算术类题目仍然是一大难关,即便是当下最强的 GPT-4 也很难处理基础运算的问题。

最近,来自新加坡国立大学的研究人员提出了一个专供算术的模型山羊 Goat,在 LLaMA 模型基础上微调后,实现了显著优于 GPT-4 的算术能力。

通过对合成的算术数据集进行微调,Goat 在 BIG-bench 算术子任务上实现了最先进的性能,

Goat 仅通过监督微调就可以在大数加减运算上实现近乎完美的准确率,超越了之前所有的预训练语言模型,如 Bloom、OPT、GPT-NeoX 等,其中零样本的 Goat-7B 所达到的精度甚至超过了少样本学习后的 PaLM-540

研究人员将 Goat 的卓越性能归功于 LLaMA 对数字的一致性分词技术。

为了解决更有挑战性的任务,如大数乘法和除法,研究人员还提出了一种方法,根据算术的可学习性对任务进行分类,然后利用基本的算术原理将不可学习的任务分解为一系列可学习的任务。

通过全面的实验验证后,文中提出的分解步骤可以有效地提升算术性能。

并且 Goat-7 B 可以在 24 GB VRAM GPU 上使用 LoRA 高效训练,其他研究人员可以非常容易地重复该实验,模型、数据集和生成数据集的 python 脚本即将开源。

会算数的语言模型语言模型

LLaMA 是一组开源的预训练语言模型,使用公开可用的数据集在数万亿个 token 上进行训练后得到,并在多个基准测试上实现了最先进的性能。

先前的研究结果表明,分词对 LLM 的算术能力很重要,不过常用的分词技术无法很好地表示数字,比如位数过多的数字可能会被切分。

LLaMA 选择将数字切分为多个 token,确保数字表示的一致性,研究人员认为,实验结果中表现出的非凡算术能力主要归功于 LLaMA 对数字的一致性分词。

在实验中,其他微调后的语言模型,如 Bloom、OPT、GPT-NeoX 和 Pythia,无法与 LLaMA 的算术能力相匹配。

算术任务的可学习性

之前有研究人员对使用中间监督解决复合任务进行了理论分析,结果表明这种任务是不可学习的,但可以分解为多项式数量的简单子任务。

也就是说,不可学习的复合问题可以通过使用中间监督或逐步思维链来学习。

在此分析基础上,研究人员首先对可学习和不可学习任务进行实验分类。

在算术计算的背景下,可学习任务通常是指那些可以成功训练模型以直接生成答案的任务,从而在预定义数量的训练 epochs 内实现足够高的精度。

不可学习的任务是那些即使经过广泛训练,模型也难以正确学习和生成直接答案的任务。

虽然任务可学习性变化背后的确切原因尚不完全清楚,但可以假设这与基本模式的复杂性和完成任务所需的工作记忆大小有关。

研究人员通过在简化的合成环境中专门针对每个任务微调模型来实验检查这些任务的可学习性。

可学习的和不可学习的任务

任务分类的结果也与人类的感知相同,通过实践,人类可以在脑海中计算两个大数字的加法和减法,无需手算的情况下,可以直接从左到右(最低有效数字)写下最终的数字答案。

不过心算解决大数乘法和除法是一项具有挑战性的任务。

还可以观察到,上述对任务的分类结果与 GPT-4 的性能也一致,特别是 GPT-4 擅长为大数加法和减法生成直接答案,当涉及到多位乘法和除法任务时,准确性会显著下降。

像 GPT-4 这样强大的模型无法直接解决不可学习的任务,也可能表明,即使经过广泛的训练,为这些任务生成直接答案也是极具挑战性的。

值得注意的是,对于 LLaMA 来说是可学习的任务可能不一定对于其他 LLM 来说是可学的。

此外,并非所有被归类为不可学习的任务对模型来说都是完全不可能学习到的。

例如,两位数乘两位数被认为是一项不可学习的任务,但如果训练集中包含所有可能的 2 位数乘法枚举数据的话,模型仍然可以通过过拟合训练集来直接生成答案。

不过整个过程需要近 10 个 epoch 才能达到 90% 左右的准确率。

而通过在最终答案之前插入文中提出的 CoT,该模型可以在 1 个 epoch 的训练后就可以在两位数乘法中实现相当不错的精度,也与之前的研究结论一致,即中间监督的存在有助于学习过程。

加法与减法

这两个算术操作是可学习的,仅通过有监督微调,模型就表现出了准确生成直接数字答案的非凡能力。

尽管模型只是在非常有限的加法数据子集上进行了训练,但从模型在未见过的测试集上实现了近乎完美的准确率上可以看出来,模型成功地捕获了算术运算的基本模式,并且无需使用 CoT

乘法

研究人员通过实验验证了 n 位数乘 1 位数的乘法是可学习的,而多位数乘法则无法学习。

为了克服这个问题,研究人员选择在生成答案之前对 LLM 进行微调以生成 CoT,将多位数乘法分解为 5 个可学习的子任务:

1. 抽取,从自然语言指令中抽取算术表达式

2. 拆分,将两者中较小的数拆分为 place 值

3. 展开,基于分配性展开求和

4. 乘积,同时计算每个乘积

5. 逐项相加,将前两项相加,复制其余项,得到最终和

其中每个任务都是可学习的。

除法

类似地,可以通过实验观察到 n 位数除以 1 位数是可以学习的,而多位数除法是不可学习的。

研究人员利用改进慢除法的递推方程,设计了一个全新的思维链提示。

主要思想是从被除数中减去除数的倍数,直到余数小于除数。

数据集

文章中设计的实验为两个正整数的加法和减法,每个正整数最多包含 16 位数字,并且减法运算的结果可能是负数。

为了限制生成的最大序列长度,乘法的结果为 12 位以内的正整数;两个正整数的除法中,被除数小于 12 位,商值 6 位数以内。

研究人员使用 Python 脚本合成了一个数据集,生成了大约 100 万个问答对,答案包含提出的 CoT 以及最终的数字输出,所有数字都是随机生成的,可以保证重复实例的概率非常低,不过小数字可能会被多次采样。

微调

为了使该模型能够基于指令解决算术问题,并促进自然语言问答,研究人员使用 ChatGPT 生成了数百个指令模板。

在指令调整过程中,从训练集中为每个算术输入随机选择一个模板,并微调 LLaMA-7B,类似于 Alpaca 中使用的方法。

Goat-7B 可以在 24GB VRAM GPU 上使用 LoRA 进行微调,在 A100 GPU 上仅花费大约 1.5 小时即可完成 10 万样本的微调,并实现近乎完美的精度。

实验结果

比较 Goat 和 GPT-4 在大量乘法和除法方面的性能似乎不公平,因为 GPT-4 会直接生成答案,而 Goat 则依赖于设计的思维链,所以在 GPT-4 评估时还在每个提示的结尾加入「Solve it step by step」

不过可以观察到,虽然 GPT-4 在某些情况下,长乘法和除法的中间步骤错了,但最终答案仍然是正确的,也就意味着 GPT-4 并没有利用思维链的中间监督来提高最终输出。

最终从 GPT-4 的解决方案中确定了以下 3 个常见错误:

1. 对应数字的对齐

2. 重复数字

3. n 位数乘以 1 位数的中间结果错误

从实验结果中可以看插到,GPT-4 在 8D+8D 和 16D+16D 任务上表现相当好,但在大多数 16D+8D 任务上的计算结果都是错误的,尽管直观上来看,16D+8D 应该比 16D+16D 相对容易。

虽然造成这种情况的确切原因尚不清楚,但一个可能的因素可能是 GPT-4 不一致的数字分词过程,使得两个数字之间很难对齐.

参考资料:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

 
上一篇: 告别TigerLake,英特尔停产第11代移动端CPU和500系列芯片组
下一篇:最后一页
 
     栏目排行
  1. 告别TigerLake,英特尔停产第11
  2. 郑商所发布关于动力煤期货2406合约有关
  3. 三星推出ExynosAutoV920汽车
  4. 哈弗二代大狗所到之处皆坦途,陪你挑战高考
  5. NexDockXL配件发布:15.6英寸
  6. 国资委:全力保障迎峰度夏能源电力安全可靠
  7. 向光而生治愈生活御璟星城样板间焕新亮相
  8. 华硕ExpertCenterPN53-S
  9. 科学家用人类胃细胞制造出胰岛素,成功治愈
  10. 超112万尾长江上游珍稀特有鱼类被放归
     栏目推荐
二手房“带押过户”启动满月 成功尝鲜者寥寥无几二手房“带押过户”启动满月 成功尝鲜者寥寥无几
2022年营收78.61亿,汤臣倍健迎来VDS行业新2022年营收78.61亿,汤臣倍健迎来VDS行业新周期
大兴国际氢能示范区兼顾产业发展和配套服务打造员工理想大兴国际氢能示范区兼顾产业发展和配套服务打造员工理想生活蓝本
迪丽热巴穿军绿色也好美!和吴磊同框丝毫没有年龄迪丽热巴穿军绿色也好美!和吴磊同框丝毫没有年龄
绿色塞罕坝 不朽的奇迹绿色塞罕坝 不朽的奇迹