原创ChatGPT遇冷,大模型风口真的过去了吗?
原标题:ChatGPT遇冷,大模型风口真的过去了吗?
在经历了疯狂增长后,ChatGPT的流量在6月出现10%的下滑。国内的类ChatGPT产品也失去了热度,相关概念股也出现了至少30%的下跌。与此同时,有媒体报道,部分类ChatGPT创业公司在国内融资困难,纷纷走向中东寻求融资。
于是,有些人开始怀疑AI大模型是不是还有未来?其实,这陷入了一个误区,他们错误地把类ChatGPT产品与AI大模型划上了等号。
01
Chat只是AI大模型的一种应用形式
事实上,Chat只是AI大模型的一种应用形式。而AI大模型是数字经济的基础设施,它既可以被用在Chat上,也可以应用到营销、生产、经营、生活服务等千行百业。
以OpenAI公司为例,ChatGPT只是OpenAI公司的一款产品,而其通用的基础AI大模型是GPT。除了ChatGPT这款生成式聊天应用外,OpenAI还利用GPT大模型开放API接口给更多企业,让他们利用GPT的能力打造属于自己的大模型产品和服务。
比如,微软Bing以及Office365就通过GPT-4大模型的能力,打造了New bing Chat以及Copilot。
人们之所以把类ChatGPT产品与AI大模型划上了等号,主要是因为无论是OpenAI以及国内的百度、科大讯飞、阿里巴巴等企业,都先推出了更接近普通用户的类ChatGPT产品,这导致很多普通用户先入为主地认为,类ChatGPT产品就是所谓的AI大模型。
此外,国内很多企业为了赶着追上ChatGPT的风口,并没有类似OpenAI一样深入打磨自己的GPT基础大模型,也没有在算力、算法、数据等核心技术上做过多的投入和研发,所以只能利用套壳海外开源大模型或者在ChatGPT生成结果上做一些微调的方式快速推出产品。这也让国内一时间出现了百模大战的局面。
02
不追赶ChatGPT风口的企业
国内也有不急于追赶ChatGPT风口的企业,比如,腾讯和华为。
今年5月,腾讯第一季度财报会议上,马化腾将AI类比发明电的工业革命,他说:对于工业革命来讲,早一个月把电灯泡拿出来,在长的时间跨度上来看是不那么重要的。关键还是要把底层的算法、算力和数据扎扎实实做好。
6月中旬,腾讯云推出了MaaS大模型一站式服务,这一解决方案能为客户提供模型预训练、模型精调、智能应用开发等行业大模型解决方案。企业可以根据腾讯云TI平台内置的大模型,加入企业自己的数据,生成专属模型,或根据自己的业务规模,选择不同参数、不同规格的模型服务。
目前,腾讯云MaaS已覆盖金融、文旅、政务、传媒、教育等十个行业,提供超50个解决方案。
据笔者了解,9月7日腾讯全球数字生态大会中,行业大模型及智能应用专场也将分享腾讯云MaaS行业大模型精调解决方案及多款智能应用升级,并联合中国信息通信研究院共同发布《行业大模型标准体系及能力架构研究报告》。
华为与腾讯一样,也没有从类ChatGPT应用入手,而是将华为盘古大模型应用到了鸿蒙4操作系统,并在华为云上为客户提供各类大模型解决方案。
如今类ChatGPT应用退潮,并不是什么坏事,这反而让AI大模型行业真正开始回归到练内功之上来,真正地去提升自身AI大模型的能力,这包括算力、算法以及网络性能等各种硬实力,也需要积极拓展应用场景、客户垂直解决方案。
目前,百度、阿里巴巴、华为等巨头都公布了自己大模型进展,唯有腾讯的AI大模型充满了神秘感。
前不久,其自研的腾讯混元大模型目前已经进入公司内应用测试阶段。此前,腾讯云、腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ浏览器等多个腾讯内部业务和产品,已经接入腾讯混元大模型测试并取得初步效果,更多业务和应用正在逐步接入中。
很多人认为,腾讯拥有最丰富的C端应用,具备打造有竞争力产品的实力。此外还有坚实的云计算基础设施,以及腾讯云在各行各业的海量客户,腾讯的AI大模型落地应用的场景是十分丰富的,也充满想象力。
当前,业界纷纷把目光投向9月7日即将召开的腾讯全球数字生态大会,大家期待在这次生态大会上能看到腾讯人工智能领域的最新进展。对此,笔者也将持续关注,并带来后续报道。
ChatGPT训练一次相当于120个美国家庭一年耗电
当你走进OpenAI的实验室,你会看到一排排高大的机柜,里面装满了闪耀着绿色光芒的芯片。这些是OpenAI购买的英伟达顶级AI芯片,价值几十亿人民币,其消耗的电力更是天文数字。这些芯片的数量之多,让人不禁感叹,ChatGPT背后需要的硬件条件之强大。
那么,这些昂贵的硬件和电力为什么如此重要呢?美国人在一个聊天机器人上投入如此巨大,又是为什么呢?
为了让ChatGPT可以发挥出最佳的性能,OpenAI购买了超过3万颗英伟达顶级AI芯片,每一颗芯片的价格都将近10万元人民币,仅这些芯片就相当于30亿人民币。这还不包括其他硬件设备和配件的费用!
为什么需要购买这么多芯片?这是因为ChatGPT需要大量的计算资源才能运行。每一次对话都需要进行大量的计算,包括自然语言处理、语义理解、逻辑推理等等,这些都需要海量的计算资源来完成。
而这些计算资源,就需要靠这些昂贵的芯片来支持。就好比小轿车和赛车,小轿车只需要一台普通的发动机就能跑起来,而赛车则需要高性能的引擎和配件才能达到极限速度。
但仅仅购买这些昂贵的芯片,还不足以支撑ChatGPT的运行。每个月,ChatGPT维持运转所需要的电费就相当于1000多万元人民币!这个数字让人瞠目结舌。要知道,这个数字相当于一家中型企业一个月的总收入。
ChatGPT有多疯狂?仅仅训练一次,就相当于120个美国家庭一年耗电
有人说,美国人总是在创新、中国人总是在应用。