据美国网站Semafor援引了八位熟悉此事的匿名消息人士的消息,OpenAI的新语言模型有一万亿个参数。其前身GPT-3有1750亿个参数。
OpenAI从2018年开始发布语言模型,首先在2018年发布了第一个版本的GPT,然后在2019年发布了GPT-2,在2020年发布了GPT-3,现在又在2024年发布了GPT-4。
像GPT这样的语言模型可以生成有用的内容并解决用户的问题。尽管有一个主要的规格可以帮助定义模型的能力并生成输入的预测,即参数。
在本文中,我们将讨论GPT-4的参数,这些参数如何影响GPT-4的性能,以及先前GPT模型中使用的参数数量等。
GPT参数是什么?
参数是语言模型内部的配置变量。这些变量的值可以从数据中估计或学习。参数对于语言模型生成预测至关重要。这些值通过发展文本来定义模型对您的问题的技能。
解释GPT-4的参数
目前还没有显示GPT-4使用的参数的具体规格。尽管有传言称OpenAI在GPT-4中使用了大约1万亿个参数。OpenAI首席执行官Sam Altman后来否认了这一说法。但由于GPT-3已经增加到1750亿个参数,我们可以预期这个新的语言模型GPT-4会有更多的参数。
这增加了基于用户输入上下文的“下一个单词”或“下一个句子”的选择。比前身更接近人类思维。由于语言模型学会了优化它们的参数,这些参数在训练时充当配置变量。通过添加参数,专家们发现他们可以发展模型的广义智能。
GPT 4有多少个参数?
在GPT-4之前,OpenAI发布了三个GPT模型,并且多年来一直在开发GPT语言模型。OpenAI在2018年发布的第一个GPT使用了1.17亿个参数。而在2019年发布的第二个版本(GPT-2)则跃升到了15亿个参数。
目前在ChatGPT中使用的GPT-3于2020年首次发布,目前在ChatGPT中使用的参数为1750亿个。然而,OpenAI拒绝透露在GPT-4中使用的参数数量。
但是随着每个新模型的参数发展,可以肯定地说,新的多模态模型比之前的语言模型GPT-3的参数多。
参数如何影响GPT-4的性能
模型的大小并不直接影响语言模型产生的结果的质量。同样,参数的总数并不一定影响GPT-4的整体性能。尽管如此,它确实影响模型性能的一个因素,而不是整体结果。
目前,我们还不知道GPT-4使用了多少参数,但如果我们看一下GPT-3及其参数,就会发现有更大数量的参数的更大的AI模型,并不一定是性能最好的,不论它们的参数如何。
Microsoft和Nvidia推出的Megatron-Turning NLG拥有超过5000亿个参数,并被认为是市场上最重要的模型之一。然而,MT-NLG仍然被认为是性能最好的。
此外,随着模型变得更大,微调的成本也会增加。目前的ChatGPT模型(GPT-3)在训练时成本很高,如果OpenAI将模型大小增加100倍,计算能力和训练数据的开销将变得非常昂贵。
因此,我们认为OpenAI在GPT-4中不太可能投资一万亿个参数,因为训练参数的数量增加不会有任何显著的改进。
GPT-4参数的影响
GPT-4参数的重要含义是其对自然语言处理的发展,例如回答问题、理解和分析提供的输入,与前身相比更接近人类思维。包括其文本摘要、语言翻译等功能。
GPT-4参数的另一个重要含义是在AI研究领域。凭借先进的功能和特点,GPT-4很可能训练其他AI模型,加速AI应用的发展和进步。
结论
参数在语言模型(如GPT-4)中起着重要作用,通过生成文本来定义模型在解决问题时的技能。上面,我们已经记录了关于参数的所有信息,包括在GPT-4和以前的语言模型中添加的参数数量。
此外,这些参数是否真的影响GPT的性能以及GPT-4参数的含义是什么。