在智能时代,用好 AI 已成为国家、行业、企业的核心竞争力,尤其以 ChatGPT 为代表的大模型诞生后,AI 行业更是被摁下了加速键,算力需求井喷。
而 AI 服务器作为算力基础设施之一,其需求有望受益于算力需求的不断提升而快速增长,市场价值凸显。
【资料图】
今年以来,AI 服务器价格一路攀升,已成了市场重点关注的焦点。有企业透露,其去年 6 月购买的 AI 服务器不足一年价格涨了近 20 倍。
01 AI 大模型热潮来袭
AI 服务器价格的大幅提升,究其根本,市场需求爆发是关键所在。
近几年,随着 AI(人工智能)技术的爆发式发展,AIGC 等大模型已成为发展趋势。特别是 2022 年 11 月 ChatGPT 横空出世后,迅速成为一款现象级的 AI 应用,引发全球投资热潮。
当前,各大科技巨头在 AI 大模型方面的军备竞赛已经开始打响。在国外,以微软、谷歌、亚马逊等为代表的国内外巨头,几乎都投身于 AI 大规模应用的开发。
国内方面,自 3 月 16 日百度率先公布 " 文心一言 " 以来,阿里、360、商汤等公司也相继对外展示了大模型项目进展,一时之间,国内大模型领域风起云涌。
AI 大模型投资热潮持续升温,而 AI大模型的实现,需要海量数据和强大算力来支撑训练和推理过程,AI算力需求也将出现指数级增长。
据华为预估,2030 年相比 2020 年,AI 爆发带来的算力需求将增长 500 倍。随之而来的巨大投资机会,将主要集中在服务器、光模块、算力芯片、数据中心等硬件环节。
其中,AI 服务器作为算力基础的重要设备,在 AI时代下有望迎来高速发展机遇。据 IDC 数据显示,中国 AI 服务器 2021 年的市场规模为 57 亿美元,同比增长 61.6%,预计到 2025 年市场规模将增长到 109 亿美元,CAGR 为 17.5%。
02 核心零部件 GPU" 一货难求 "
AI 服务器市场需求强劲,但其核心零部件 GPU(图像处理器、加速芯片)供应却严重短缺,价格持续高增。受零部件成本上升影响,AI 服务器价格随之上涨。
据悉,目前通用服务器的 CPU(中央处理器)可提供的算力难以满足 AI 应用的需求,而 GPU(图像处理器、加速芯片)具有实时高速的并行计算和浮点计算的能力,更擅长梳理密集型的数据运算,如 AI 训练 / 推理、机器学习等应用场景。
与此同时,在传统服务器中,通常最多配备 4 个 CPU+ 相应内存和硬盘,AI 服务器往往需要搭载 2 颗 CPU+8 颗 GPU,部分高配服务器甚至需搭配 16 颗 GPU。也就是说,在AI服务器中,GPU的需求将成倍增加。
从市场规模看,考虑到 AI 服务器的单价比普通服务器单价高 20 倍以上,市场推测,伴随着 AI 服务器渗漏率的提升,GPU 未来市场潜力巨大。据 VerifiedMarketResearch 估算,GPU 全球市场 2027 年预计可达 1853 亿美元,中国市场 2027 年可达 346 亿美元。
而在供给端,漂亮国不断遏制中国 AI 产业的发展,并限制英伟达(市场比重高达 80%)、AMD 等 GPU 的主要厂家向中国销售高性能 GPU。
国内上游 GPU 缺货现象严峻,服务器厂商缺少核心零部件,自然会影响 AI 服务器企业的生产。
在这样的背景下,GPU 国产化迫在眉睫。眼下,以中兴通讯等通讯设备制造龙头为代表的企业正加速布局 GPU 服务器。
在 2022 年度业绩说明会上,中兴通讯执行董事、总裁徐子阳就表示,将在今年年底推出会支持大宽带的 ChatGPT 的 GPU 服务器。
徐子阳称,主要分出三步走,首先是新一代算力基础设施产品,计划今年底推出支持大带宽 ChatGPT 的 GPU 模型,支持大模型训练,包括 AI 服务器、高性能交换机等;第二在软件层面,会把能力放在数字星云解决方案中去;第三,中兴会自研新一代 AI 芯片,降低推理成本。
多家机构认为,中兴通讯有望在这波 ChatGPT 掀起的 AI 浪潮中受益。据 IDC 发布了《2022 年第四季度中国服务器市场跟踪报告 Prelim》显示,中兴通讯的市场占比已从 3.1% 提升至 5.3%,挤进国内前五。
结语:
综上,从产业趋势来看,随下游大模型陆续推出,AI 算力需求迅速增加,GPU 的国产化推进进程加速。但目前国内 GPU 产品在诸多方面与海外英伟达等龙头的差距较大,突破更为不易。
为此,市场也推测,未来 AI 服务器价格或仍将保持上涨趋势。
热门