第201章 ChatGPT的代价

重生之AI教父 CloseAI 1599 字 11天前

后来世人们都知道ChatGPT的威力,但很少有人仔细算过这笔账:先不提数据的事情,只说想要训练这个改变了世界的模型,到底需要多少的算力和设备。

英伟达的市值突破万亿,背后的原因是ChatGPT引发的AI算力军备竞赛。

而制造这起军备竞赛的OpenAI本身,其实一直都很缺乏算力,OpenAI因为无法负担ChatGPT的训练算力,而选择与金主爸爸微软合作。

这也是为什么他们曾经一度因为用户的需求量太大而停止提供服务,还是硬件设备不够。

微软为他们耗费了好几亿美元,组建了超过万张A100显卡的超级算力平台。

每一张A100都拥有80G的显存,也就意味着OpenAI当初为了得到ChatGPT这个模型,准备了大约百万GB大小的显存。

这么换算下来,怎么也得十万张泰坦Z才能够达成相同的显存效果。

十万张泰坦Z,这下可是真真正正的核弹了。

并且这还只是显存与微软保持了一致,由于设备的年代差异,泰坦Z运算的速度还得比A100再慢上不少。

别的什么乱七八糟的都先不提,按泰坦Z的定价算,光是买这些显卡就得整整三个亿美金。

这笔钱孟繁岐现在肯定是掏不起的,就算他掏得起,老黄也掏不出那么多泰坦Z来。

并且,这十万张显卡也不是凭空就能计算的,相应的主板电源CPU等其他配套设备,你也不能太差吧?

彼此之间的交互通讯设备,也得配齐,否则发挥不出这些显卡的全部能力。

这些东西准备好,价格又得翻一倍,至少得五六个亿美金。

设备运转起来,跟挖矿特别像,光是每天需要的电费也是百万级别的天文数字,训练一整个ChatGPT出来的成本自然不低。

本小章还未完,请点击下一页继续阅读后面精彩内容!

只是想要得到这个模型,就得大几个亿美金进去。后续ChatGPT提供给用户使用,所需要的算力和设备只会更多。

因为训练模型只是单个实体在持续更新自己的内容,耗费的资源虽多,却是一次性的,一劳永逸。

而用户在使用的时候则是多个内容不再变化的实体持续推理,模型则需要反复根据用户不同的新输入一直生成回复。

虽然推理比训练的损耗小了许多,但也架不住百万千万的用户一起使用。

当时微软为了ChatGPT的广泛使用,在六十多个数据中心,给OpenAI腾出了几十万张GPU显卡,简直是壕无人性。

惹得自家的员工都嫉妒坏了,为什么他们OpenAI可以用,我们微软自己的员工用不了?

这不公平!