如何评价100万亿参数的gpt4?
RTX3090显卡的显存是24G,算3000美元。1TB的显存需要 42.7块这样的显卡,也就是126000USD= 126kUSD
如果GPT4是160TB,那么就单纯的显卡购置费用就是20160000 USD。
实际上,GPT4的真实大小在预计其参数大约在1750 亿到2800 亿之间,出处见文末。也就是0.25万亿,是题主臆想出来的GPT4的400 分之一。其实也就是GPT3的1-2倍。甚至可能大小就和GPT3一模一样。因此,真实预期的GPT4的大小也就是0.7-1.4TB左右。
为了更深入地理解智能和空间占用大小直接的关系,我们要重新的来探讨这个问题。
神经网络的从理论上只要资源足够可以拟合一切信息。如果只是把GPT用来处理文字显然是路走窄了。任何信息都可以用byte的形式来表示,而一个byte就是一个char,也就是说GPT只要按照规律输出char,就可以输出任何信息。
只要模型够大,资源够多,GPT4就能生产出任意的信息。比如Base64,就是图片用字符串表示的一种方法
数据结构,内存,操作系统,算法,代码,图片,视频,音频,模型,任何计算机中的概念都是以byte形式储存的,所以只要这个模型够大,资源够多。就可以输出任意的信息。
为了方便我们直接用内存大小表示:
GPT3: 700GB ≈ 0.7TB
GPT4: 1400GB ≈1.4TB
题主臆想的GPT4: 160TB
人类已知创造文字信息占用空间(按照某答主的估算):9.536 TB
先说说为什么人类创造的文字信息远不止9.536 TB
因为自互联网出现一来很多的机器也参与了文字创作工作,而且生产速度远远超过人类。把这些内容加上去,文字信息就远不止10TB,html格式,代码,自动文档生成器,PDF,数据表格等等各种各样的类文本结构。
人类已知被虚拟化的数据量
某硬盘厂商2021卖出的硬盘空间:152EB = 1474560 TB,这还是单一大厂家的数据,如果加总所有,这个数字大概翻1倍多,我们按照出货量每年10%的增长。算50年(从1970年开始算)。最终结果是 29339209 TB。也就是0.3亿TB不到。 所以GPT4只占有了人类已知虚拟化数据的0.0000054 , 也就是万分之0.054。
全体人类脑容量之和
而我们再算一个数据,人脑有1000亿个神经元,约合100T,全球总共有70亿人类,所以整个人类总群的信息量在也就是7000亿TB。
而人类的脑容量总和在700000000000TB。美国博士人口占比是1%,如果全世界都是美国。那么科学家的脑容量总量在7000000000TB。要完全取代科学家的工作,1.4TB 最多相当于,1.4%个博士。
不管是哪种GPT,对比全体人类所具有的7000亿TB大脑来说。GPT4其实只占人类智力的极小一部分。
我们把数字列出来看一看
GPT4合理估计上限:1.4TB
GPT4题主臆想版: 160TB
至今虚拟化的数据:30000000TB
人类大脑总和:700000000000TB
很多能源时代的科幻作品经常用能源把人类划分文明等级。而身处数据时代,我们应该换一种思维。
第一类智力文明
虚拟化数据超过人类脑容量总和
第二类智力文明
神经网络的数据大小超过人类脑容量总和
仔细分析一通下来,我终于松了一口气,GPT4性能大概率有提升,但也不要吹过头。
GPT3还是有很多错误,希望GPT4能解决这些问题。
该文章原始数据均来自搜索引擎和ChatGPT,如有纰漏之处请指正。