1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

AI服务器专题:浪潮信息超前布局AI与液冷,国产服务器龙头前景广阔(附下载)

1987web2023-10-04人工智能AI244
原标题:AI服务器专题:浪潮信息超前布局AI与液冷,国产服务器龙头前景广阔(附下载)

原标题:AI服务器专题:浪潮信息超前布局AI与液冷,国产服务器龙头前景广阔(附下载)

今天分享的是人工智能AI服务器研究报告:《浪潮信息-超前布局AI与液冷,国产服务器龙头前景广阔》。(报告出品方:国泰君安)

精选报告来源公众号:【幻影视界】

研究报告内容摘要如下

服务器行业多轮驱动,市场空间广阔

我国对数字经济发展的重视程度逐渐提高,支持性政策持续出台。党的十八大以来,发展数字经济上升为国家战略,数字经济在政府工作报告中的地位不断提升,2017年中央政府工作报告首次提出促进数字经济加快发展;2022年中央政府工作报告将促进数字经济发展单独成段,提出加强数字中国建设整体布局,用数字化赋能经济发展;

2023年中央政府工作报告提出大力发展数字经济,加快传统产业和中小企业数字化转型以及支持平台经济发展。政府工作报告对数字经济的表述不断强化,释放大力发展数字经济的积极政策信号。

我国数字经济将迎来黄金发展期。根据中国信通院发布的2023年中国数字经济发展报告,2022年我国数字经济规模首次突破50万亿元大关,同比名义增长10.3%,高于GDP名义增速4.98个百分点。自2012年以来,我国数字经济增速已连续11年显著高于GDP增速,数字经济持续驱动我国经济的增长。数字经济在国民经济中的地位逐渐稳固,所占GDP比重超过四成,达到41.5%,相当于第二产业占国民经济的比重。从长期来看,发达国家数字经济占GDP比重为55.7%,中国数字经济发展依然具有巨大空间。

算力是数字经济的底座,服务器是算力的核心载体

算力是数字经济发展的底座,起到决定性作用。算力、算法和数据是数字经济发展的三大核心要素。海量的数据每时每刻都在产生,数据的生产不再是问题,如何处理、分析和使用数据才是问题,这就需要高效的算法和模型进行配合。而软件算法经历了数十年的发展,在深度学习和加速计算出现之后,得到了迅速的发展和优化,开始成为社会关注的热点。然而在三大要素中,算力才是最核心的要素,只有算力的进步才能使算法高效处理数据成为可能性,因而算力在推动数字经济向前发展并走向成熟的过程中起到决定性的作用。

算力提升具有极强的经济效益,因而成为各国政策支持的重点。根据清 华大学全球产业院与浪潮信息联合发布的《2021-2022 全球计算力指数 评估报告》,通过对全球 15 个重点国家的计算力指数与数字经济及 GDP 的回归分析,得到 15 个重点国家的计算力指数平均每提高 1 点,国家 的数字经济和 GDP 将分别增长 3.5‰和 1.8‰,预计该趋势在 2021 年至 2025 年间将持续保持,且进一步研究发现,当一个国家计算力指数分别 达到 40 分及 60 分以上时,计算力指数每提升 1 点,其对 GDP 增长的 推动力将分别增加到 1.5 倍及 3 倍,对经济增长的拉动作用会变得更加 显著。考虑到算力提升,尤其是智能算力提升所具备的重大经济效益, 对算力基础设施发展的支持性政策成为各国政策的重点。

服务器是算力的核心载体,在计算网络中扮演着重要角色。服务器是计 算机的一种,其是算力的具体载体,功能是为整个网络系统中的客户机 (如 PC 电脑、智能手机等)提供高可靠的查询、计算、存储及应用服 务,各类型业务系统(如 OA、ERP 等)均需要基于服务器进行搭建,因 此在处理能力、稳定性、可靠性、安全性、可拓展性、可管理型等方面 都有较高的要求。按照使用场景进行划分,服务器通常分为通用服务器、 存储服务器、云服务器、高性能服务器、边缘计算服务器、AI 服务器等;按产品形态划分,可以分为多节点服务器、整机柜服务器、机架式服务 器、塔式服务器、刀片服务器等;按处理器个数划分,可以分为单路、 双路和多路服务器;按照处理器类型划分,可以分为 x86 架构服务器、 Arm 架构服务器等;按应用级别划分,可分为入门级、工作组级、部门 级和企业级服务器。

服务器产业链条长,辐射范围广。

服务器上游主要为 CPU、GPU、硬盘、 内存、总线等核心零部件供应商,以及操作系统、数据库、中间件、虚 拟化等基础软件供应商。中游为各大服务器品牌厂商及白牌(OEM、ODM) 厂商,将零部件进行组装,成为可直接使用的整机。下游客户则主要包 括互联网云厂商及政府、电信、金融等关键行业,根据 IDC 统计数据, 2020 年互联网客户贡献我国 40%以上服务器采购需求,电信、政府、金 融也分别贡献 10%以上的服务器采购需求,其余需求则以制造、服务、 交通、医疗、能源、公共事业、媒体、建筑等重要行业为主,覆盖面广、 社会影响大。

AI 大模型带来增长新动能,服务器行业市场空间广阔

随着AI大模型的快速发展,算力需求呈现明显增长趋势。2022年底,以ChatGPT为代表的生成式AI应用引起了全球范围内的AI热潮,仅仅上线两个月的时间里,ChatGPT就吸引了上亿月活用户,成为有史以来用户增速最快的消费级应用。

生成式AI的训练依赖于AI大模型,通常而言参数量的提升可以提高大模型的表现效果,当参数量达到一定临界值后,大模型会出现涌现效应,即产品的效果突然大幅提升。而大模型参数量的大幅度提升自然会推动AI算力需求的高速增长,根据OpenAI的报告,从2012年以来最大规模的AI模型训练所需要的计算量,每3.4个月便翻倍一次,远远超过了摩尔定律2年的倍增期;

OpenAI在2018年推出的GPT-1大模型参数量为1.17亿,2019年推出的GPT-2提高至15亿,而ChatGPT在训练阶段使用的GPT-3模型的参数量达到1750亿,如果以算力当量(PFLOPS-day,PD),即每秒运算千万亿次的计算机完整运行一天消耗的总算力,来衡量AI大模型对AI算力的需求,GPT-3模型的训练需要3640PD的算力需求,即不考虑任何运算效率损失的情况下,需要1个算力规模达到3640P或者7-8个单体算力500P左右的智能计算中心完整运算1天,才能完成一次GPT-3模型的完整训练。

国内厂商也在加速布局大参数量的大模型,根据《证券日报》统计,截止7月3日,我国参数量在10亿以上的大模型已经达到80余个,其中不乏多个千亿参数以上的大模型,随着大模型参数量的持续提升,对算力需求的带动效应会持续增强。

AI服务器成为全球服务器市场增长的新动能,推动服务器市场增长提速。根据IDC统计数据,2021年全球服务器市场规模为992亿美元,同比增长8.99%,2018-2021年复合增速为3.94%,其中AI服务器市场规模在2021年达到156.3亿美元,同比增长39.06%,2018-2021年复合增速为25.01%。IDC预计到2026年,全球服务器市场规模将达到1642亿美元,2022-2026年复合增速将提速至7.49%,其中AI服务器市场规模在2026年将达到347.1亿美元,2022-2026年复合增速为15.51%。AI服务器占全球服务器市场之比从2018年的9.06%提高至2021年的15.76%,预计在2026年将达到21.14%,为全球服务器市场规模的持续增长带来新动能。

多因素推动下,中国算力发展迎来黄金期。随着海量数据的增加、算法模型的复杂化、应用场景的持续深入、支持性政策的不断出台,中国的算力发展迎来黄金期。根据IDC数据,以双精度(FP64)测算中国的通用算力规模,2021年中国通用算力规模为47.7EFLOPS,预计2026年将提高至111.3EFLOPS,2021年至2026年间的年复合增速仅为18.5%;同时以半精度(FP16)测算中国的AI算力规模,2021年中国AI算力规模达到155.2每秒百亿亿次浮点运算(EFLOPS),2022年达到268.0EFLOPS,同比增长72.7%,预计到2026年规模将达到1271.4EFLOPS,2021年至2026年间中国AI算力规模的年复合增长率达到52.3%,将实现快速增长。

中国服务器市场规模预计将持续增长,其中AI服务器同样会保持更快增速。根据IDC统计数据,2021年中国服务器市场规模为250.9亿美元,同比增长15.89%,2018-2021年复合增速为11.64%,其中AI服务器市场规模在2021年达到59.2亿美元,同比增长68.18%,2018-2021年复合增速高达52.14%。IDC预计到2026年,中国服务器市场规模将达到374亿美元,2022-2026年复合增速为8.39%,依旧保持稳定增长,其中AI服务器市场规模在2026年将达到123.4亿美元,2022-2026年复合增速为15.64%,相较整体服务器市场保持更快增速。AI服务器占中国服务器市场之比从2018年的9.32%提高至2021年的23.60%,预计在2026年将达到32.99%,将成为占据增量服务器市场1/3的重要贡献者。

液冷服务器符合双碳目标下低PUE的发展趋势,可以满足高密度机柜的算力需求。《2021-2022年度中国数据中心基础设施产品市场总报告》显示,2021年我国单机柜功率在10kW以上的数据中心市场规模增长率超过10%,其中30kW以上的高密度数据中心增长速度最快,达到31%,当机柜功率超过15kw,现有风冷技术散热能力已达极限,需要采取更高散热效率的液冷方式。同时在双碳目标下,监管政策对数据中心的能源消耗提出了严苛的要求,工信部印发的《信息通信行业绿色低碳发展行动计划(2022-2025)》要求到2025年实现全国新建大型、超大型数据中心PUE降到1.3以下,改建核心机房PUE降到1.5以下,各地方政府也出台一系列PUE限制措施。采用液冷技术的数据中心的能耗和碳排放量可以有效降低,因而选用液冷服务器逐渐成为新型数据中心的发展趋势。根据三大运营商2023年6月5日联合发布的《电信运营商液冷技术白皮书》,三大运营商将在2023年开展液冷技术验证,到2025年50%以上项目采用液冷技术,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局。

我国液冷服务器目前仍处于蓝海市场,成长性较强。从交付模式上来看, 目前液冷技术的产业化和标准化仍处于发展阶段,其主流模式为一体化 交付,即液冷整机柜(包括机柜和服务器)由单一厂商按照自定标准完 成一体化交付。随着液冷技术的产业化和标准化,多厂商按照统一标准 分别生产机柜和服务器的解耦交付模式有望逐渐普及。这一模式便于液 冷产品的灵活部署,形成统一的标准及规范,从而进一步推进产业生态 成熟。从市场规模上来看,传统数据中心的液冷改造和新型绿色数据中 心的设立将持续推动了液冷服务器的需求。根据 IDC 数据,2022 年我国 液冷服务器市场规模为 10.1 亿美元,同比增长 189.9%,预计 2027 年市 场规模将达到 95 亿美元,2022-2027 年复合增速达到 56.6%,整体保持 快速增长趋势。

服务器行业竞争格局相对稳定,浪潮信息为国产服务器领军企业

服务器行业进入壁垒高,竞争格局相对稳定。服务器行业上游核心元件 的垄断程度高,上游厂商具有较强的议价能力,下游主要客户如互联网 厂商、电信、金融等的集中度亦不断上升,议价能力同样在增强。面对 上下游的价格压力,服务器厂商需要极强的成本控制能力来稳定毛利率, 因此技术专利和规模效应形成了服务器行业的进入壁垒。中长期来看, 全球服务器市场竞争格局相对稳定。按照出货金额测算,2022 年全球出 货金额前四分别为戴尔、HPE、浪潮信息、联想,分别占比 16.31%,10.55%、 7.86%、6.49%,近几年前四大厂商的竞争格局未发生重大变动。中国服 务器市场方面,市场份额集中度相对较高,CR3 占比超过 50%,2022 年 市场份额前四的厂商为浪潮信息、新华三(紫光股份)、超聚变、宁畅 和中兴通讯,其占比分别为 28.1%,17.2%,10.1%、6.2%及 5.3%,浪潮 信息的市场优势地位显著,份额长期保持全球前三、中国第一。

AI 服务器中国厂商优势更加显著,浪潮位居全球第一。在 AI 服务器领 域,中国厂商表现出更强的发展活力,根据 IDC 数据(2022 年数据尚 未公开),2021 年浪潮信息以 20.9%的份额登顶全球 AI 服务器市场,联 想、新华三、华为市场份额分别为 5.8%、4.0%及 2.9%,位列全球第 4、 6、7 位。在中国 AI 服务器市场中,浪潮信息的优势地位更加显著,2021 年浪潮信息在中国市场营收同比增长 61.6%,市场份额达到 52.4%,连 续五年以超过 50%的市占率稳居行业第一,宁畅、新华三、华为、安擎 分列行业第二至第五,互相之间份额差距不大,未来存在排名变化的可 能性,但短中期内预计无法挑战浪潮信息的优势地位。

中国液冷服务器市场集中度较高,浪潮份额位居行业第一。根据 IDC 数 据,以销售额计算,2022 年浪潮信息、超聚变、宁畅位居我国液冷服务器市场份额前三名,三者合计占据七成市场份额,其中浪潮信息与超聚 变的市场份额接近,二者合计占据六成以上份额,相较其他厂商有明显 的市场领先优势。2022 年是中国液冷服务器市场具有里程碑意义的一年, 越来越多传统行业开始从零到一的部署液冷数据中心,目前具有先发优 势的龙头供应商有望在未来持续受益。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源公众:【幻影视界】,回复关键字报告,获取完整PDF电子版。

在即将到来或者说已经到来的人工智能时代,我们更多的是听到AI服务器这一名词。那么,究竟什么是AI服务器,AI服务器又为何适用人工智能时代?

AI服务器的定义

从硬件架构来看,AI服务器主要指的是采用异构形式的服务器,表现形态多为机架式。在异构方式上,可以为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡。

而在其他组成部件上,如内存模块、存储模块、网络模块与传统服务器差别不大,主要的提升便是支持更大容量的内存满足当下实时负载增加的需求,提供更多外置硬盘插槽,并广泛支持NVME/PCIE等SSD,满足数据洪流需求,网络模块主要表现为带宽增加。

尽管AI服务器可以采用多种异构形式,但目前广泛使用的是CPU+GPU。也因此,业界在谈到AI服务器时,往往将其默认为GPU服务器。因此,在第二部分中,笔者谈到的AI服务器优势也主要为GPU服务器。

AI服务器的优势

传统服务器主要以CPU为算力提供者。而CPU为通用型处理器,采用串行架构,擅长逻辑计算,负责不同类型种类的数据处理及访问,同时逻辑判断又需要引入大量分支跳转中断处理,这使得CPU的内部结构复杂。也因此,CPU算力的提升主要靠堆核来实现。

随着云计算、大数据、AI、物联网等技术应用,数据在近几年呈指数型增长,IDC统计显示全球90%数据均在近几年产生,这便对CPU的处理能力提出考验,而目前CPU的物理工艺、核心数已接近极限,数据量却不会停止,服务器的处理能力必须提升。因此,在AI时代下,仅由CPU做算力提供者的传统服务器并不能满足需求。

不同于CPU,GPU采用并行计算模式,单卡核心数达到上千个,擅长处理密集型运算应用,如图形渲染、计算视觉和机器学习。经过几年验证,搭载GPU的服务器也被证实的确适用这个时代。

AI服务器市场现状

IDC全球半年度人工智能系统支出指南预测显示,2019年全球人工智能系统支出将达到358亿美元,相比2018年增加44.0%。同时,人工智能系统支出到2022年将翻一番达到792亿美元,2018年到2020年预测期内复合年增长率(CAGR)为38.0%。

什么是AI服务器,AI服务器又为何适用人工智能时代?