200字带你看完一本书,GPT-3已经会给长篇小说写摘要了
博雯发自凹非寺
量子位报道|公众号QbitAI
现在 , AI能帮你200字看完一段12万词的长篇小说了!
比如这样一段121567词的《傲慢与偏见》原文:
文章图片
△图源OpenAI官网
AI分四个阶段来总结:
先把原文总结成276个摘要(24796词) , 然后进一步压缩成25个摘要(3272词) , 再到4个摘要(475词) 。
最终得到一段175词的摘要 , 长度只有原片段的千分之一:
文章图片
粗略翻译下看看 , 关键的几个情节都点到了:
文章图片
这理解力 , 不禁让人望着某泡面压留下了泪水 。
这就是OpenAI最新推出的能给任意长度书籍写摘要的模型 。
平均10万词以上的训练文本 , 最终能压缩到400字以内 。
而且这也是源自OpenAI精妙的刀法:没错 , 就是把GPT-3数据集里的书籍/小说部分抽出来进行训练所得到的模型 。
话不多说 , 一起来看看这个微调版的GPT-3模型 。
递归任务分解
首先 , 现将“总结一段文本”这一任务进行算法上的分解 。
如果该文本足够短 , 就直接进行总结;如果它比较长 , 就把文本分成小块 , 并递归地对每一块进行总结 。
这就形成了一棵总结任务树:
文章图片
其中只有叶子任务会对书籍中的原始文本进行操作 。
并且 , 已生成的摘要应该放在同一深度 , 并按照顺序串联起来 。
比如上图中的蓝色任务的先前总结输出就用虚线来表示 , 这样 , 每一个摘要都是自然地从上一层任务(前文)流出 , 以保证那些相距较远的段落能够真正地“联系上下文” 。
接下来开始训练:
根据上述的任务树将书籍和其子摘要递归为任务;从树上抽出一个节点 , 对应一个带训练的总结任务;获得训练数据 , 给该节点以输入;使用训练数据对模型进行微调 。其中 , 所有训练数据都来自GPT-3中的书籍部分 。
研究人员会跳过非叙事性书籍 , 尽量选择小说类(平均包含超过10万个单词) , 因为这些上下文关联性更强的文本对总结任务来说更难 。
这一训练过程可以使用新的模型、不同的节点采样策略、不同的训练数据类型(演示和比较)来迭代 。
对于演示用的数据 , 使用标准的交叉熵损失函数进行行为克隆(BC) 。
对于比较数据 , 则通过强化学习(RL)来对抗一个专为人类偏好而训练的奖励模型 。
强化学习也有三种变体的抽样任务:
全树第一棵子树第一片叶子训练完成后进行总结 , 任务的最终目的是追溯出叙述的时间线和整体主题 。
每个摘要子任务的目标是将文本压缩5到10倍 , 长度上限为128到384个符号 。
优于现有同类模型
实验阶段 , 研究人员使用了Goodreads2020榜单上的40本最受欢迎的书籍 , 其中囊括了幻想、恐怖、爱情、推理等近20个类型 。
然后让两名人类研究员和模型同时进行总结 , 要求双方的摘要质量的一致性接近于80% 。
模型规模分为175B和6B两种 , 且训练模式也分为上述的强化学习的三种变体任务 。
最后结果中 , 可以看到第一棵子树RL和全树RL的总结任务最接近于人类的水平:
文章图片
并且 , 也有超过5%的175B模型的摘要被打到了6分(满分7分) , 超过15%的摘要被打到5分:
- 金山云|2000元的手机也搭载4nm芯片,为啥还要买四五千元的?看完明白了
- |为何十字门冰箱那么受欢迎,十字门冰箱适合家用吗,看完你就懂了
- USB|共模干扰和差模干扰,看完终于明白了
- 小猪断奶吃料拉稀怎么办?断奶小猪怎么喂不拉稀,看完请收藏
- 旅行者1号又传回了一张照片,研究员看完后都沉默了
- 独到的设计才能被消费者记住!看完国外新手机品牌,国产只服他们
- 苹果|手机更新了会变卡?看完恍然大悟
- 一口气看完全集,这部全程高能的科幻美剧,太过瘾了
- 操作系统|学习电感怎么入门?看完就明白了
- 华为|贵了一百元 华为畅享50比iQOO Z5x好在哪 看完这篇你应该明白了
