第201章 ChatGPT的代价

重生之AI教父 CloseAI 1599 字 11天前

“ChatGPT级别的模型的大小还是跟现在我做过的那些差了太远了。”孟繁岐在心中开始飞速地计算了起来。

他需要估算出,自己到底大概需要多少张泰坦Z,一会才好跟老黄讨价还价。

深度学习的模型参数很容易计算,不过算完总是容易忘记。

孟繁岐有一套独特的办法,使得他可以对各个经典模型参数量之间的比例基本上了如指掌。

那就是以郑爽为基本计量单位。郑爽日薪百来万,一年就是六七个亿,可以记录6.5亿为一爽。

经典的残差网络,也就是孟繁岐去年的成名作,差不多0.033爽。

ChatGPT,1760亿参数,差不多250爽。

也就是说,孟繁岐目前经常训练的模型,参数量上距离ChatGPT得有7600多倍的差距。

这实在是现阶段难以负担的规模。

“不过好在ChatGPT的爆火后来引发了许多学者去思考如何将这个模型压缩得更小。”

孟繁岐对此感到庆幸,由于ChatGPT规模实在太大了,导致绝大部分玩家都根本玩不起这个东西。

因而整个业界都在想办法,到底怎么样才能够以百分之一百分之二左右的规模做到类似、乃至接近ChatGPT的效果。

“所以说,人穷也是有好处的,穷则思变嘛!”

若不是大家都玩不起250爽的大模型,又怎么会一个个都如此擅长把3到4爽大小的模型做好呢?

“我可以初步实现一版本十多亿左右参数的迷你ChatGPT,这样我需要的显卡数量大约在800到1000张左右,总价两三百万美金,这就在我很容易负担的范围之内了。”

孟繁岐希望黄仁勋为谷歌大脑提供一大批显卡是没错,但如今的他可并不缺钱了。

显卡进了谷歌,势必要被分走一大部分,用途上,也不能够百分百自己说了算。

不如多花点钱,自己先做一个超算中心。

微软那样上万张A100的究极奢华十亿美金计算中心,孟繁岐做不起,但做一个大几百、乃至千张泰坦Z的规模,还是负担得起的。

不就是钱嘛!不差钱!

唯一的问题在于,不知道老黄的泰坦Z到底生产了多少。

毕竟虽然两边都有合作的意向,可若是存货不多,黄仁勋也不可能真的让孟繁岐把这批显卡全都自己搬走了。