AI服务器就是GPU服务器吗?
不一定。
AI服务器从硬件架构来看,主要指的是采用异构形式的服务器,一般来说服务器的算力来源是CPU,采用的是串行架构,在逻辑计算、浮点型计算等方面很擅长,但是 CPU 的结构复杂,算力的提升智能依靠堆砌更多的核心数来实现。
然而面对充斥在互联网中呈现几何倍数的增长的数据,这对以 CPU 为主要算力来源的传统服务提出了严重的考验。在这种大环境下,AI 服务器可以根据应用的范围采用不同的组合方式来大幅提升算力,如 CPU+GPU、CPU+TPU、CPU+其他的加速卡等。
其中,采用CPU+GPU结构的AI服务器十分广泛,因此在一般的认知中,许多人将其默认为GPU服务器,但严格来说,AI服务器并不一定是GPU服务器,也可以搭载其他的加速卡。另一方面,GPU服务器也不等同于AI服务器,由于AI 服务器需要承担大量的计算,GPU卡一般配置四块以上,所以说只有一两块GPU卡的服务器也难以满足人工智能业务的需求,还称不上是AI服务器。
参考链接:
现在市面上的 AI 服务器普遍采用 CPU+GPU 的形式,因为 GPU 与 CPU 不同,采用的是并行计算的模式,擅长梳理密集型的数据运算,如图形渲染、机器学习等。在 GPU 上,NVIDIA 具有明显优势,GPU 的单卡核心数能达到近千个,如配置 16 颗 NVIDIA Tesla V100 Tensor Core 32GB GPUs 的核心数可过 10240 个,计算性能高达每秒 2 千万亿次。且经过市场这些年的发展,也都已经证实 CPU+GPU 的异构服务器在当前环境下确实能有很大的发展空间。
AI服务器可以使用多种模型架构,如神经网络、决策树、支持向量机等,进行复杂的AI模型计算。它们可以支持多种常用的AI技术,如机器学习、自然语言处理、计算机视觉、生物信息分析等。AI服务器还可以运行特定AI应用,可以自动识别图片和文本,按需求进行调整,或者对计算模型进行训练等。
AI服务器是什么意思?AI服务器和普通服务器的区别
深度学习的三大要素是数据、算法和计算力,其中数据是基础,算法是工具,计算力是助推器,计算力的提高推动者深度学习的发展,深度学习之前发展缓慢,除了算法的原因外,很
AIGC时代,对算力需求也将大幅提升,将对AI服务器需求进一步扩大,而工业富联也是算力市场重要玩家,其云计算板块营收首超2000亿。
AI算力龙头市值超4100亿,工业富联继续看好下半年AI服务器
文/杨剑勇