AIGC:共创人工智能的黄金时代
随着人工智能引发第四次科技变革,ChatGPT带动人工智能新一轮发展浪潮,AIGC(人工智能生成内容)这一赛道开启了全新的赛段,全球高精尖力量纷纷布局AIGC,推动这一领域的技术革新与各类应用场景的逐步落地。
AIGC内容可通过自然语言处理、机器学习和计算机视觉等技术来生成,也就是生成式AI,旨在让机器像人类一样思考并解决问题。AIGC不仅可以覆盖文本、音频、图像、视频等基本内容模态,还可以综合文本、图像、视频进行跨模态生成,演化成为具体的生产力要素。
图片来源:摄图网
据华金证券分析指出,ChatGPT的发展带动了文字类AI生成进入黄金时期,随后图片类AI生成黄金时期和视频类AI生成黄金时期也将陆续到达,AIGC也将逐步落实产业应用,赋能制造业、建筑业等巨型垂直实体领域。
目前,AIGC的应用场景集中在一些数字化程度较高、内容需求丰富的行业,比如金融、传媒、电商、影视和娱乐等领域,具体可表现为金融领域中的营销视频合成、智能金融客服、VR金融场景构建,传媒领域的AI主播、智能播报、写稿机器人,电商领域的商品3D模型生成、品牌虚拟主播,工业中的辅助工程设计,医疗中的医学图像处理等。未来,AIGC的应用场景会进一步多元化,场景与场景之间也将实现融合交互。
尽管目前AIGC的应用场景以面向C端提供个性化体验为主,比如虚拟偶像、虚拟主播、虚拟助手等,不过AIGC在B端场景的潜力是巨大的,特别是以AIGC智能数字人为载体,可赋能于各个领域的应用场景,成为从现实到虚拟的关键钥匙。
小i交互数字人
小i机器人融合自然语言处理、语音处理、机器学习等技术并开拓创新,打造了小i交互数字人。对于用户的提问,数字人可以调取通用知识库进行问答指引,并生成播报视频,以标准化服务实现降本增效。数字人还可以活跃于金融、政务、文旅、电商等领域,化身为数字员工,不断在B端开拓崭新的应用场景。
AIGC智能数字人也成为现实世界与虚拟世界的联结点,不仅高效完成业务查询和办理服务,还可为用户提供线下导览服务,成为数字人助理,推动现实世界与虚拟世界发生深度融合。
随着AI技术的快速发展,AIGC逐渐成为千行百业必不可少的内容生成引擎,也蕴含着无限的生产力和创造力。在人工智能的黄金时代,人类与AIGC智能数字人携手并肩,将共同拥抱繁荣而多彩的未来。
IDC 数据显示:2021 年全球人工智能 IT 投资额为 929.5 亿美元,预计 2026 年将增至 3014.3 亿美元,复合 年增长率约 26.5%。2026 年中国市场 AI 投资预计将达 266.9 亿美元,约占全球投资 8.9%,居世界第二位,复合 年增长率约 21.7%。未来五年,硬件将成为中国人工智能最大的细分市场,占人工智能总投资的 50%以上。IDC 预测,2026 年,中国在人工智能硬件市场的 IT 投资将超过 150 亿美元,接近美国人工智能硬件的市场规模,五年复合年增长率 16.5%。服务器作为硬件市场的主要组成部分,预计将占总投入的 80%以上。 人工智能的发展将对算力提出更高要求,算力网络基础设施需求有望持续提升。根据中国信通院数据,2021 年全球计算设备算力总规模达到 615EFlops(每秒浮点运算次数),同比增长 44%,其中基础算力规模为 369EFlops, 智能算力规模为 232EFlops,超算算力规模为 14EFlops,预计 2030 年全球算力规模将达到 56ZFlps,平均年均增 长 65%。 我国智能算力规模持续高速增长,2021 年智能算力规模已经超过通用算力。根据中国信通院数据,我国计 算设备算力总规模达到 202EFlops,全球占比约为 33%,保持 50%以上的高速增长态势,增速高于全球,其中智 能算力增长迅速,增速为 85%,在我国算力中的占比超过 50%。
1.3AI 算力产业链涉及环节较多,行业需求有望全面提升
AI 算力产业链涉及环节较多,按照算力基础设施构成来看,包括 AI 芯片及服务器、交换机及光模块、IDC 机房及上游产业链等。其中,随着训练和推理需求提升,AI 芯片及服务器需求将率先放量;AI 算力对数据中心 内部数据流量较大,光模块速率及数量均有显著提升,交换机的端口数及端口速率也有相应的增长;IDC 也有 望进入需求释放阶段,预计液冷温控渗透率将快速提升,海底数据中心也可能将迎来产业化的关键节点。
1、AI 芯片和服务器需求将率先放量
根据测算,2023 年-2027 年全球大模型训练端峰值算力需求量的年复合增长率为 78.0%。2023 年全球大模 型训练端所需全部算力换算成的 A100 总量超过 200 万张。从云端推理所需算力角度测算,2023 年-2027 年,全 球大模型云端推理的峰值算力需求量的年复合增长率为 113%,如果考虑边缘端 AI 推理的应用,推理端算力规 模将进一步扩大。
2、AI 算力改变数据中心内部网络架构,光模块和交换机速率及需求提升
AI 数据中心中,由于内部数据流量较大,因此无阻塞的胖树网络架构成了重要需求之一,光模块速率及数 量均有显著提升,交换机的端口数及端口速率也有相应的增长。 800G 光模块 2022 年底开始小批量出货,2023 年需求主要来自于英伟达和谷歌,2024 年有望大规模出货, 并存在时间前移的可能。从交换机的电口来看,SerDes 通道的速率每四年翻倍,数量每两年翻倍,交换机的带 宽每两年翻倍;从光口来看,光模块每 4 年升级一次,实际出货时间是晚于电口 SerDes 及交换机芯片新版发布 的时间。2019 年作为 100G 光模块升级的时间点,市场分成了 200G 和 400G 两条升级路径。但是在 2023 年这 个时间点,市场下一代高速率光模块均指向 800G 光模块,叠加 AIGC 带来的算力和模型竞赛,我们预计北美各 大云厂商和相关科技巨头均有望在 2024 年大量采购 800G 光模块,同时 2023 年也可能提前采购。
3、IDC 需求有望释放,AI 服务器高功率密度或将推升液冷渗透率
IDC 作为算力基础设施产业链的关键环节,也有望进入需求释放阶段。在过去两年半,受多重因素影响下, 云计算需求景气度下行,但 IDC 建设与供给未出现明显放缓,2021 年和 2022 年分别新增机柜数量 120 万架和 150 万架,因此短期内出现供需失衡情况(核心区域供需状况相对良好),部分地区上电率情况一般。所以 IDC 公司 2022 年业绩普遍承压。随着平台经济发展恢复以及 AI 等拉动,IDC 需求有望逐步释放,叠加 2023 新增供 给量有望较 2022 年减少(例如三大运营商 2022 年新增 IDC 机柜 15.6 万架,2023 年计划新增 11.4 万架)。 人工智能大模型训练和推理运算所用的 GPU 服务器的功率密度将大幅提升,以英伟达 DGX A100 服务器为 例,其单机最大功率约可以达到 6.5kW,大幅超过单台普通 CPU 服务器 500w 左右的功率水平。在此情况下, 一方面需要新建超大功率的机柜,另一方面为降低 PUE,预计液冷温控渗透率将快速提升,海底数据中心也可 能将迎来产业化的关键节点。
二、AI 芯片需求爆发式增长
2.1 AI 大规模落地应用对 AI 芯片性能、数量提出全方位要求
从广义上讲,能运行 AI 算法的芯片都叫 AI 芯片。CPU、GPU、FPGA、NPU、ASIC 都能执行 AI 算法, 但在执行效率层面上有巨大的差异。CPU 可以快速执行复杂的数学计算,但同时执行多项任务时,CPU 性能开 始下降,目前行业内基本确认 CPU 不适用于 AI 计算。 CPU+xPU 的异构方案成为大算力场景标配,GPU 为应用最广泛的 AI 芯片。目前业内广泛认同的 AI 芯片 类型包括 GPU、FPGA、NPU 等。由于 CPU 负责对计算机的硬件资源进行控制调配,也要负责操作系统的运行,在现代计算系统中仍是不可或缺的。GPU、FPGA 等芯片都是作为 CPU 的加速器而存在,因此目前主流的 AI 计算系统均为 CPU+xPU 的异构并行。CPU+GPU 是目前最流行的异构计算系统,在 HPC、图形图像处理以及 AI 训练/推理等场景为主流选择。IDC 数据显示,2021 年中国 AI 芯片市场中,GPU 市占率为 89%。
人工智能行业深度报告:算力大时代,AI算力产业链全景梳理
(报告出品方:中信建投证券)