担心教坏小朋友,网友贴心地为我们打上了码。
虽然ChatGPT回答了什么,我们不得而知,但对比之前回答的长度,只能说关于自己为什么没有穿XX,ChatGPT确实有很多想要说的(迫真)。
GPT-3如何进化到ChatGPTChatGPT可算被沙雕网友给玩坏了,那么问题来了:
初代GPT3是如何进化成ChatGPT的?ChatGPT又是怎么抓取素材的?
最近来自艾伦人工智能研究所的研究人员撰写了一篇文章,试图剖析 ChatGPT 的突现能力(Emergent Ability),并追溯这些能力的来源,并给出了一个全面的技术路线图以说明GPT-3.5模型系列以及相关的大型语言模型是如何一步步进化成目前的强大形态。
首先,初代GPT-3展示的三个重要能力如下:
- 语言生成:遵循提示词(prompt),然后生成补全提示词的句子。这也是今天人类与语言模型最普遍的交互方式。
- 上下文学习 (in-context learning):遵循给定任务的几个示例,然后为新的测试用例生成解决方案。很重要的一点是,GPT-3虽然是个语言模型,但它的论文几乎没有谈到「语言建模」 (language modeling) —— 作者将他们全部的写作精力都投入到了对上下文学习的愿景上,这才是 GPT-3的真正重点。
- 世界知识:包括事实性知识 (factual knowledge) 和常识 (commonsense)。
那么这些能力从何而来呢?
基本上,以上三种能力都来自于大规模预训练:
在有3000亿单词的语料上预训练拥有1750亿参数的模型( 训练语料的60%来自于2016 - 2019 的C4 22%来自于WebText2 16%来自于Books 3%来自于Wikipedia)。
其中语言生成的能力来自于语言建模的训练目标(language modeling)。
世界知识来自3000亿单词的训练语料库(不然还能是哪儿呢),而模型的1750亿参数就是为了存储它们。
从GPT-3到ChatGPT为了展示是GPT 3如何发展到ChatGPT的,我们先来看看 GPT-3.5 的进化树:
2020年7月,OpenAI发布了模型索引为davinci的初代GPT-3论文,从此之后开启了不断进化迭代之路。
- 21年7月,Codex 的论文发布,其中初始codex是根据120亿参数的GPT-3变体微调的,后来这个模型演变成 OpenAI API中的code-cushman-001。
- 22年3月,OpenAI发布指令微调 (instruction tuning) 论文,其监督微调 (supervised instruction tuning) 的部分对应了davinci-instruct-beta和text-davinci-001。
- 22年4月至7月,OpenAI开始对code-davinci-002模型进行Beta测试。
尽管Codex听着像是一个只管代码的模型,但code-davinci-002可能是最强大的针对自然语言的GPT-3.5变体(优于 text-davinci-002和-003)。
然后是text-davinci-003和ChatGPT,它们都在2022年11月发布,是使用的基于人类反馈的强化学习的版本指令微调 (instruction tuning with reinforcement learning from human feedback) 模型的两种不同变体。
text-davinci-003恢复了一些在text-davinci-002中丢失的部分上下文学习能力(大概是因为它在微调的时候混入了语言建模) 并进一步改进了零样本能力(得益于RLHF)。
Youtube上也有博主发了这两代的性能对比视频,有兴趣的小伙伴可以看看~