AI算力龙头市值超4100亿,工业富联继续看好下半年AI服务器
文/杨剑勇
今年科技市场焦点在AIGC(生成式AI)身上,搭上这趟车的相关公司在市场上均大放异彩。其中,工业富联就是代表性厂商之一,今年以来,ChatGPT与AI应用热潮持续升温,工业富联成为备受市场关注的AI算力龙头,在资本市场得到大幅上涨,累计涨幅高达129%,市值突破4000亿大关,为4183亿元。
AIGC时代,对算力需求也将大幅提升,将对AI服务器需求进一步扩大,而工业富联也是算力市场重要玩家,其云计算板块营收首超2000亿。
2022年,工业富联来自云计算业务收入达到2124.44亿元,同比增长19.56%,连续5年保持成长趋势,营收占比提升到40%以上。因云计算板块表现亮眼,驱动整体营收突破5000亿大关,2022年营收规模高达5118.5亿元,净利润超200亿元。
在此之前,工业富联认为,ChatGPT的蓬勃发展,将有望带动尤其是AI算力相关的CAPEX(资本支出)提升。这些趋势对工业富联而言,将起到正向促进作用。要知道,目前全球算力需求增长正进入爆发阶段,而人工智能等新科技应用的突破,离不开强大算力支持。
主要ChatGPT等大型语言模型(LLM)应用必将带动新一波算力的需求增长。举例而言,GPT-3的语言模型包括1,750亿个参数,如果和GPT2相比较,增加了将近117倍。到了GPT-4,参数量将达到1.6兆个,伴随而来的是大量的平行运算算力需求。
与此同时,算力需求带动的不仅是工业富联AI服务器业务成长,同时将带动整个相对应的超算系统架构的升级,这包括:中央处理器单元、运算加速器、高效能的存储器,以及更高的带宽及更快的传输界面。此外,应对庞大的算力随伴而来的高能耗问题,工业富联已实现成熟的数据中心液冷及沉浸式散热产品,以及高效能电源供应技术,将以最节能的方式,提供市场及客户完整的AI硬体解决方案,就如同工业富联已被云服务商客户大量采用的HGX系列AI服务器。
整体来看,工业富联企业服务器、存储器、超大型架构云计算的出货量已位居全球领先,其中,2017就推出第一代高效能运算产品(HPC)- AI服务器,至今已推出第四代产品。同时,也提供各客户垂直整合的产品服务与多样化的产品组合。
训练AI大模型,需要有效的大数据和大算力及规模化的参数,因此对GPU的需求呈现直线上升,带动AI服务器市场需求走高,今年第一季度,工业富联AI服务器规模与占比增速持续加快,AI服务器营收及占比都有较大增长。
在ChatGPT与AI的应用风潮下,受益于市场扩容带来的机会,看好下半年AI服务器销售业绩。工业富联CEO郑弘孟表示,AI服务器市场比市场预期更大,下半年公司AI服务器销售有望强劲增长。
过去一年,随着元宇宙、数字孪生、东数西算等推进,算力需求持续释放带动算力基础设施产业迎来增长新周期。
根据IDC数据,2022年全球服务器出货量突破1516万台,同比增长12%。同时,全球AI服务器市场的年复合成长率于2021-2026年达17.3%。另外,随着人工智能应用的普及,2022年我国智能算力规模近乎翻倍,达到268EFLOPS,超过通用算力规模;未来5年我国智能算力规模的年复合增长率预计达52.3%。
在年报中所披露的数据显示,工业富联在云计算服务器出货量持续全球第一,与全球主要服务器品牌商、国内外CSP客戶深化合作,推出新一代云计算基础设施解决方案,包括模块化服务器、高效运算(HPC)等,重点解决因 ChatGPT持续升温而引发AIGC算力井喷需求。
ChatGPT等新兴AI产品对算力、带宽、GPU、高容量储存、先进散热与节能需求激增,云计算基础设施作为算力 AI 服务资源,其重要性日益突显。其中,工业富联为数家第一梯队云服务商AI服务器(加速器)与AI存储器供应商。
AIGC所驱动的人工智能浪潮席,将对AI服务器需求进一步扩大。且随着全球服务器市场加速扩容,工业富联的云计算及企业服务器、存储器等产品销量稳居全球领先地位,预计2023年将有更多产品出货。此外,在ChatGPT浪潮下将继续深挖算力市场。
算力时代的开启为高效AI服务器提供了更广阔的发展空间,新产品将在陆续研发推出,深化在算力市场的布局。2023年,工业富联将有更多以人工智能及算力需求为基础的研发,而创造一系列的AI服务器及HPC的陆续上市,导入在大型云服务商的应用之中,特别是生成式人工智能及元宇宙相关的应用。
最后,各行各业利用人工智能、物联网、云计算等数字化新技术,以此提升生产效率的同时,实现降本增效,为企业可持续发展奠定坚实基础。对于数字化企业而言,帮助各界更快地进行数字化升级和创新的同时,也打开了业绩增长空间。其中,云计算厂商是数字化最大受益厂商,因云计算是各行各业数字化转型技术底座。
杨剑勇,福布斯中国撰稿人,致力于深度解读物联网、云服务、人工智能和智能家居等前沿科技。
其中,采用CPU+GPU结构的AI服务器十分广泛,因此在一般的认知中,许多人将其默认为GPU服务器,但严格来说,AI服务器并不一定是GPU服务器,也可以搭载其他的加速卡。另一方面,GPU服务器也不等同于AI服务器,由于AI 服务器需要承担大量的计算,GPU卡一般配置四块以上,所以说只有一两块GPU卡的服务器也难以满足人工智能业务的需求,还称不上是AI服务器。
参考链接: