AI服务器拆解,产业链核心受益梳理
近年来,随着全球物联网、数据中心的快速发展,服务器需求量不断增长。据IDC数据显示,2021年全球服务器出货量达到1354万台,yoy+11%;2021年全球服务器市场规模达到992亿美元,yoy+9%。其中,大陆服务器出货量由229万台增长至391万台,CAGR+11%;市场规模由93亿美元增长至251亿美元,CAGR+22%,两项增速远超全球。
ChatGPT火热拉动AI芯片需求快速增长,英伟达GPU供需紧张。ChatGPT推出不久即在全球范围火爆,成为史上用户增长速度最快的消费级应用程序,用户访问数量不断增长拉动算力需求激增。据OpenAI数据,1月ChatGPT重大停机(Major outage)时长为5小时30分钟,部分停机(Partial outage)16小时21分钟,运营算力不足已经开始影响ChatGPT的稳定性和响应速度,4月因访问需求量过大,ChatGPT更是短暂停止Plus销售服务。微软与OpenAI正在消耗大量GPU用于AI推理,英伟达GPU产品供应紧缺,我们认为大模型的火热将带来巨大算力需求,算力芯片将作为底层土壤核心受益。
ChatGPT带动AI服务器需求,存储芯片受益。服务器成本包括算力芯片、存储器等,根据IDC 2018年服务器成本构成,在高性能服务器/推理型服务器/机器学习型服务器中存储占比29%/25%/16%。AI服务器,除了内存需要128GB或更大容量的高性能HBM和高容量服务器DRAM,还需硬盘去存储大量数据。受益人工智能、物联网和云计算等应用兴起,服务器出货量及单机容量提升推动增长。
ChatGPT数据运算量增长快速,带动服务器/交换机等用量提升,布局相应领域PCB公司显著受益。
ChatGPT带来了算力需求的激增,与之对应亦带来相应服务器/交换机等作为算力核心载体和传输的硬件,带来PCB需求大幅增长,同时随着对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。以23年发布的新服务器平台为例,Pcie 5.0服务器用PCB层数、材料、设计工艺均有升级,PCB价格提升显著,其层数从4.0的12-16层升级至16-20层,根据 Prismark 的数据,2021年 8-16层板的价格为456美元/平米,而18层以上板的价格为1538美元/平米,PCB 价值量增幅明显;另外配套新服务器,交换机、传输网产品都需要同步升级,预计400G、800G交换机对PCB板子拉动巨大,进一步带动数通板景气度提升。
持续看好AIGC发展下,算力+应用两大方向,建议关注:
(1)AI算力芯片:寒武纪、景嘉微;
(2)AI应用:大华股份、海康威视;
(3)服务器产业链:工业富联、沪电股份、深南电路、奥士康;
(4)C端AI应用:国光电器、漫步者;瑞芯微、晶晨股份、乐鑫科技、恒玄科技、中科蓝讯;
(5)Chiplet:通富微电、长电科技、华海清科、长川科技、兴森科技。
风险提示:行业需求不及预期的风险:若包括手机、PC、可穿戴等终端产品需求回暖不及预期,则产业链相关公司的业绩增长可能不及预期。
下游技术迭代不及预期:存在行业技术迭代速度不及预期从而对需求造成影响的风险。
产能瓶颈的束缚:2021年缺芯潮带来产业链公司业绩快速增长,产能成关键限制因素,若包括代工厂、封测厂等产能扩张进度不及预期,则可能影响公司业务的增速速度。
去库存不及预期、大陆厂商技术进步不及预期、中美贸易摩擦加剧、研报使用的信息更新不及时的风险、报告中各行业相关业绩增速测算未剔除负值影响,计算结果存在与实际情况偏差的风险、行业数据或因存在主观筛选导致与行业实际情况存在偏差风险。
本文源自:金融界
作者:王芳中泰电子首席
AI服务器是什么意思?AI服务器和普通服务器的区别【市场分析】2023年中国AI服务器行业市场发展情况一览
现在市面上的 AI 服务器普遍采用 CPU+GPU 的形式,因为 GPU 与 CPU 不同,采用的是并行计算的模式,擅长梳理密集型的数据运算,如图形渲染、机器学习等。在 GPU 上,NVIDIA 具有明显优势,GPU 的单卡核心数能达到近千个,如配置 16 颗 NVIDIA Tesla V100 Tensor Core 32GB GPUs 的核心数可过 10240 个,计算性能高达每秒 2 千万亿次。且经过市场这些年的发展,也都已经证实 CPU+GPU 的异构服务器在当前环境下确实能有很大的发展空间。
AI服务器可以使用多种模型架构,如神经网络、决策树、支持向量机等,进行复杂的AI模型计算。它们可以支持多种常用的AI技术,如机器学习、自然语言处理、计算机视觉、生物信息分析等。AI服务器还可以运行特定AI应用,可以自动识别图片和文本,按需求进行调整,或者对计算模型进行训练等。
AI服务器是什么意思?AI服务器和普通服务器的区别
深度学习的三大要素是数据、算法和计算力,其中数据是基础,算法是工具,计算力是助推器,计算力的提高推动者深度学习的发展,深度学习之前发展缓慢,除了算法的原因外,很