事实上,在其他场景的应用中,开发者只需对模型进行微调或使用少量数据进行二次训练,即可满足新应用场景的需求。然而,训练一般的大型模型非常“昂贵”。
根据国盛证券的报告“ChatGPT需要多少计算能力”,GPT-3培训的成本约为140万美元。对于一些较大的LLM(大型语言模型),培训成本在200万美元至1200万美元之间。根据1月份ChatGPT的平均独立访客数,相应的芯片需求量超过30000个英伟达A100 GPU。
初期投资成本约为8亿美元,每日电费约为5万美元。如果每次搜索都将当前的ChatGPT部署到Google,则需要512820.51 A100 HGX服务器和总共4102568 A100 GPU。仅这些服务器和网络的总成本就超过1000亿美元。
国盛证券认为,在公共云上,对于谷歌等全球科技企业来说,100万至1000万美元的培训成本并不便宜,但仍然可以接受,也不贵