曾经想知道ChatGPT成功背后的价格标签吗?它已经吸引了数百万用户,并进入了许多应用和平台。但是,运行这样一个先进的聊天机器人并不便宜。
在本文中,我们将深入探讨ChatGPT运营的日常成本,并揭示导致其高昂开销的因素。让我们看看ChatGPT幕后的运作,并了解真正让它运转的原因!
每个查询ChatGPT的成本是多少?
根据具体情况和定价层次的不同,估算每个查询ChatGPT的成本可能有所不同。
根据SemiAnalysis首席分析师Dylan Patel的一份报告,保持ChatGPT运行的成本约为每天70万美元,即每个查询约36美分。
然而,由于各种未知变量的存在,这种估算存在不确定性。OpenAI是ChatGPT背后的组织,在其网站上提供了自己的定价信息。
OpenAI提供了针对不同价格点进行对话优化的ChatGPT模型。
例如,GPT-3.5-turbo模型的价格为每1,000个标记0.002美元,其中每个标记代表一个单词的几个字母,1,000个标记大约相当于750个单词。
基于这种定价结构,我们可以说ChatGPT中的一个查询成本约为0.2美分。
然而,每个查询的0.2美分价格反映了订阅ChatGPT Plus层的用户的成本,该层每月收费20美元并提供额外的福利。但对于免费用户来说,每个查询的成本可能要高得多。
OpenAI通过与微软等公司的合作部分补贴了免费用户的成本。
每天ChatGPT的成本是多少?
每天运营ChatGPT的成本是一个因估算不同而变化的主题。如上所述,每天运行ChatGPT的大约成本约为70万美元。
这种估算是基于一个成本模型,该模型认为运行ChatGPT的计算硬件费用为每天694,444美元。
然而,一些未知变量可能会影响实际成本,例如接收的查询数量、GPU性能和利用率、GPU价格和可用性、功耗和冷却要求以及维护和折旧成本。
Another source声称运行ChatGPT的每日成本为10万美元。这一估计考虑了在微软的Azure云平台上托管ChatGPT所涉及的费用。
据估计,在Azure上使用一个A100 GPU的成本为每小时3美元,每个在ChatGPT上生成的单词的成本为0.0003美元。
考虑到这些因素,使用至少八个GPU并且平均响应为30个单词,每个响应的成本约为1美分。根据这个计算,OpenAI可能每天花费10万美元或每月300万美元用于运营成本。
虽然具体成本因用户数量、GPU性能和其他运营考虑因素而异,但显然ChatGPT的运营涉及大量财务资源。由于支持其人工智能能力所需的基础设施的复杂性,OpenAI投入了大量资金来维持ChatGPT的运行。
ChatGPT对微软的成本是多少?
据报道,微软在2019年向OpenAI投资了100亿美元。作为OpenAI的主要合作伙伴和投资者之一,微软通过提供Azure云服务和潜在的自有AI芯片Athena来支持ChatGPT和其他人工智能项目。虽然微软与OpenAI的具体财务安排未公开,但可以合理地假设微软承担了运行ChatGPT所涉及的一些成本。
此外,微软独家获得GPT-4的源代码和数据,用于其自己的产品和服务。这意味着微软与OpenAI之间存在更深层次的合作,进一步凸显了微软在ChatGPT的开发和运营中的参与程度。
关于成本结构,ChatGPT托管在微软的Azure平台上,根据用户使用的资源收费。然而,这种成本结构仅占运行ChatGPT的硬件成本的很小比例(约为3%),这表明微软可能为ChatGPT的运营承担了相当大的部分费用。
与谷歌搜索相比,ChatGPT搜索的成本如何?
将ChatGPT搜索的成本与谷歌搜索进行比较可以得出一些有趣的见解。作为全球最受欢迎和盈利能力强大的搜索引擎之一,谷歌通过搜索广告获得了可观的收入。
尽管谷歌单独运行搜索引擎的确切成本没有公开披露,但可以使用平均每次查询收入(ARPU)等指标进行估算。报告表明,谷歌2020年的搜索广告ARPU约为0.05美元,这意味着每次查询的大致成本约为2.5美分。
相比之下,ChatGPT的每次查询成本更高,估计为36美分。根据这些粗略估计,ChatGPT的每次查询成本为36美分,约为谷歌每次查询成本的14倍。
ChatGPT的计算资源成本是多少?
由于运行该模型所需的要求很高,ChatGPT的计算资源成本是一个重要的考虑因素。ChatGPT依赖于CPU和GPU集群的组合,成本因操作规模而异。
报告表明,ChatGPT的计算资源成本可能从几百美元到每小时数千美元不等。这个范围反映了所执行任务的复杂性、使用的模型大小以及使用时长。
为了运行ChatGPT,OpenAI利用了诸如Nvidia的A100 GPU等先进的硬件设备。
根据SemiAnalysis的说法,OpenAI使用了大约3,617台HGX A100服务器,总计28,936个GPU,每台服务器的价格高达约20万美元。这意味着约有7.23亿美元的大规模硬件投资。
此外,运行ChatGPT需要消耗大量电力。
根据估计,每天的电力成本约为5.2万美元,再加上较大的折旧费用,ChatGPT的计算硬件成本估计每天约为69.4444万美元。
这些数字突显了为支持ChatGPT的基础设施、电力消耗和维护所需的大量财务投资。
ChatGPT的研究人员和开发人员成本是多少?
考虑到与ChatGPT相关的费用,研究人员和开发人员的成本是一个关键组成部分。这些高技能人才在聊天机器人的开发、改进和维护中起着至关重要的作用。
在人工智能领域,研究人员和开发人员的薪资相当可观,通常在几十万到数百万美元之间。
据Glassdoor的数据显示,平均每年的研究人员薪资约为15万美元,而微软的AI开发人员平均年薪为12.7万美元。
假设有大约100到200名全职研究人员和开发人员在ChatGPT上工作,总薪资成本可能达到显著的数额,有可能每年达到数百万美元。
然而,需要注意的是,仅仅考虑薪资成本并不能完全涵盖与研究人员和开发人员相关的全部费用。
需要考虑其他因素,如福利、税费、设备、培训和其他运营成本等。根据估计,包括这些因素在内的雇主成本可能会使工资开销增加约30%。
考虑到工资和相关成本,以及其他费用,如计算资源,ChatGPT的总研发支出可能很大。
根据项目的规模和复杂性,仅每天的成本就可能达到数十万美元甚至超过百万美元。
ChatGPT数据存储和维护的费用是多少?
数据存储和维护是运行ChatGPT的关键组成部分。该模型需要大量的存储容量来容纳用于训练和微调的大型数据集。存储如此庞大的数据会带来重大的费用,包括基础设施成本,这取决于数据访问的数量和频率等因素。
数据存储的确切成本取决于各种因素,例如存储类型(热存储、冷存储或归档存储)、存储的数据量以及所选择的云服务提供商的定价结构。
例如,Azure的Blob存储服务提供热存储每GB每月约0.0184美元的价格,而冷存储每GB每月约0.01美元。
对于像ChatGPT这样依赖大量数据的模型来说,这些成本可能会显著累积。
此外,数据维护是确保ChatGPT性能和安全性的关键方面。没有详细信息,很难估计数据维护的具体成本,但显然,维护像ChatGPT这样的大规模语言模型会产生巨大的费用。
数据维护包括安全措施、备份解决方案、加密、压缩、索引和处理,这些共同增加了总体成本。
为什么ChatGPT如此昂贵?
ChatGPT使用了一种先进的深度学习模型,需要大量的计算能力和内存。这有助于程序很好地理解和处理人类语言。为了确保聊天机器人的顺利运行,OpenAI必须使用强大的服务器和高性能计算机,这可能很昂贵。
ChatGPT之所以昂贵的另一个原因是它每天收到大量用户查询。为了回答这么多的查询,处理它们并给出正确的回答需要大量的工作和资源。
满足这种高需求还需要大量的计算能力和资源,以确保聊天机器人能够快速准确地回应。
正如你现在可能已经了解到的那样,ChatGPT的开发和维护也增加了其成本。OpenAI拥有一支专家团队,不断致力于改进聊天机器人并解决任何问题。他们的技能和努力增加了运行ChatGPT服务的总体费用。
此外,存储和管理ChatGPT使用的大量数据也增加了其费用。OpenAI投资于强大的数据存储系统,并采取严格的安全措施来保护用户交互并保持数据安全。管理所有这些数据需要资源,并增加了总体成本。
结论
运营ChatGPT需要大量资金,因为它需要复杂的基础设施、大量的计算能力、持续的开发工作以及OpenAI和其合作伙伴的巨额投资。尽管具体成本尚未公开,但显然运行ChatGPT需要巨大的投资。然而,ChatGPT的好处是相当可观的,因为它可以改变人们与计算机的互动方式,并在人工智能方面取得进展。