AI服务器价格水涨船高,大模型时代下的算力之困

AI服务器价格水涨船高,大模型时代下的算力之困

来源丨元宇宙简史

作者丨元宇宙简史主理人 Fun


【元宇宙导读】AI服务器作为算力基础设施之一,能够快速准确地处理大量数据,满足AI大模型的运算需求。然而,AI服务器市场也面临着价格上涨、供应紧缺、竞争激烈等挑战,本文将从多个方面对AI服务器市场进行全面的分析。


AI大模型发展热潮带来了市场算力需求的大增,AI 服务器作为算力基础设施之一,近期价格大涨。

据相关企业透露,其去年6月购买的AI服务器不足一年价格涨了近20倍。同期,GPU(图像处理器、加速芯片)价格也不断上涨,英伟达A100 GPU市场单价已达15万元,两个月前为10万元,涨幅50%。

AI服务器价格水涨船高,大模型时代下的算力之困

AI服务器价格上涨的原因主要有两方面:

一是市场需求增加,AI 大模型对算力的需求远超过现有供应;

二是核心零部件GPU持续紧缺,全球主要厂家英伟达、AMD在GPU方面的产能有限,且受美国禁令影响。

AI 服务器价格上涨给相关企业带来了成本压力和出货量下降的困境,也给云服务商和终端用户带来了使用成本的增加。如何解决AI 服务器的算力之困,成为业界关注的问题。


01AI大模型火热推动算力需求大增

近年来,人工智能技术取得了突飞猛进的发展,尤其是在自然语言处理(NLP)、计算机视觉(CV)、语音识别(ASR)等领域,出现了一批具有划时代意义的AI大模型。

AI服务器价格水涨船高,大模型时代下的算力之困

国外:OpenAI的GPT-4、谷歌的PaLM2、微软的Turing-NLG、Meta的LLaMA、DeepMind的Gopher等

国内:百度的文心一言、阿里巴巴的通义千问、腾讯的混元、华为的盘古、科大讯飞的星火、复旦大学的MOSS等

这些AI 大模型都具有超强的学习能力和泛化能力,可以在多个任务和领域上取得优异的表现,甚至超越人类水平。

它们为人工智能应用提供了强大的支撑和推动力,也引发了全球各大科技企业和研究机构的竞相追逐和拥抱。据不完全统计,自3月16日百度率先公布“文心一言”以来,国内已有超过30项大模型产品亮相。

然而,AI 大模型的实现,需要海量数据和强大算力来支撑训练和推理过程。华为方面预估到2030年,AI爆发带来的算力需求将增长500倍。

而目前市场上可用于训练AI大模型的算力资源远远能满足需求,例如:OpenAI的GPT-3.5模型拥有1750亿个参数,需要使用数千块GPU进行数月的训练。

最近马斯克也向英伟达购买了上万块GPU,用来训练其名为TruthGPT的大模型。

AI服务器价格水涨船高,大模型时代下的算力之困


02AI服务器作为算力基础设施受青睐

为了满足AI大模型对算力的需求,市场对于AI服务器作为算力基础设施之一的需求也随之增加。AI服务器是一种专门用于支持人工智能应用的服务器,与传统通用服务器相比,它具备以下特点:

– 异构式架构:AI服务器通常采用CPU和GPU等组合的异构式架构,利用GPU强大的图形渲染和海量数据并行运算能力,提高运算效率和性能;

– 高密度设计:AI服务器通常采用高密度设计,将多个节点集成在一个机架内,节省空间和能源消耗;

– 高性能网络:AI服务器通常采用高性能网络接口和交换机,实现高速数据传输和低延迟通信;

– 高效散热:AI服务器通常采用高效散热方案,保证设备在高负载运行下稳定工作。

AI服务器价格水涨船高,大模型时代下的算力之困

由于以上特点,AI服务器可以快速准确地处理海量数据,在深度学习、高性能计算、搜索引擎、游戏等行业广泛应用。

例如,在深度学习领域,训练复杂的神经网络模型;在搜索引擎领域,提供智能搜索服务;在游戏领域,渲染高清画面和生成虚拟角色等。

据IDC数据显示,在2021年上半年全球AI服务器市场中,浪潮信息以20%的市场份额位居第一,戴尔、惠普、联想、华为分别以14%、10%、6%、5%紧随其后。当前中国AI服务器企业在全球处于前列位置。

AI服务器价格水涨船高,大模型时代下的算力之困

IDC中国研究经理索引对记者表示:“过去几年,加速计算服务器(加速计算服务器中90%为AI服务器)是拉动服务器市场增长的主要驱动力,2019年~2022年,整个服务器市场增量为100亿美元,其中50亿美元来自加速计算服务器市场增量。”

据TrendForce的数据,截至2022年为止,预估搭载GPGPU(General Purpose GPU)的AI服务器年出货量占整体服务器比重近1%,预估在ChatBot相关应用加持下,有望再度推动AI相关领域的发展,预估出货量年成长可达8%;2022~2026年复合成长率将达10.8%。


03GPU持续紧缺推动AI服务器价格大涨

尽管AI服务器市场前景广阔,但目前AI服务器行业也面临着一些困境,其中最突出的就是核心零部件GPU的持续紧缺和价格大涨。

GPU是图形处理器或加速芯片的简称,是一种专门用于处理图形和视频相关的运算的芯片。由于GPU具有强大的并行计算能力,可以同时处理大量数据,因此在人工智能领域被广泛应用于加速深度学习模型的训练和推理过程。

AI服务器价格水涨船高,大模型时代下的算力之困

目前,全球GPU市场主要由英伟达和AMD两家公司所垄断,其中英伟达占据全球约八成市场份额。

然而,由于全球芯片产业链的复杂性和脆弱性,以及美国对中国企业的技术封锁和制裁,导致GPU供应持续紧张。

另一方面,由于疫情期间游戏、云计算、加密货币等行业的需求增加,也导致GPU需求持续旺盛,供需失衡使得GPU价格不断上涨。

据悉,英伟达在2020年8月发布了面向AI领域的高端显卡A100/H100,但在2022年8月被美国宣布禁售中国企业。

AI服务器价格水涨船高,大模型时代下的算力之困

为了应对这一局面,英伟达在2022年11月表示已研发出可向中国出货的A800(替代A100),并在今年3月表示已研发出可向中国出货的H800(替代H100)。然而,这些替代品的供应仍然十分有限,远远不能满足市场需求。

AI服务器价格水涨船高,大模型时代下的算力之困

据一家英伟达终端商家透露,目前英伟达A100单价为15万元,两个月前为10万元,涨幅50%;A800目前单价约为9.5万元,上月单价为8.9万元。

另有代理商透露,英伟达A100价格从去年12月开始上涨,截至今年4月上半月,5个月价格累计涨幅达到37.5%,同期A800价格累计涨幅达20%。

由于一个AI服务器往往搭载数颗GPU,因此AI服务器的价格涨幅往往高于零部件价格涨幅。有企业透露,其去年6月购买的AI服务器不足一年价格涨了近20倍。

同期,其他品牌的AI服务器也出现了不同程度的涨价。例如,某服务器ODM企业相关人士告诉记者,从五月份开始该公司A100卡也有15%涨幅,整体AI服务器为10%左右的涨幅。


04、AI服务器价格上涨给相关企业带来困境

AI 服务器价格上涨给相关企业带来了成本压力和出货量下降的困境。

一方面,对于AI服务器生产商来说,由于核心零部件GPU价格上涨和供应紧张,导致其生产成本增加和出货量受限。

另一方面,对于AI服务器使用者来说,例如云服务商和终端用户,由于AI服务器价格上涨和供应不足,导致其使用成本增加和算力资源匮乏。

AI服务器价格水涨船高,大模型时代下的算力之困

据行业媒体报道,“现在英伟达GPU严重缺货,服务器厂商缺少核心零部件,一定程度上影响了相关企业的出货量。”而为了应对增加的订单量,英伟达也向台积电追加预订1万片先进封装产能,以满足AI顶级规格芯片的生产。但这些措施仍然难以解决短期内的供需矛盾。

另外,在国内可用于训练AI大模型的A100大约有4万~5万个,供应相当吃紧。一些云服务商已严格限制内部使用这些先进芯片,以将其保留至需要强力运算的任务。而对于终端用户来说,在线租用云端AI服务器也变得更加昂贵和困难。


05如何解决AI服务器的算力之困

面对AI 服务器价格上涨和供应紧张的问题,业界正在寻求各种解决方案。其中主要有以下几个方向:

– 增加GPU产能:这是最直接也最困难的方案。由于全球芯片产业链的复杂性和脆弱性,在短期内很难实现大幅提升GPU产能。不过,在中长期来看,随着台积电、三星等芯片制造商扩大投资和产能,在国内也有多家企业在积极布局国产GPU芯片,在未来或许可以缓解GPU供应紧张的问题;

– 优化AI模型:这是一个技术层面的方案。通过优化AI模型的结构、参数、算法等方式,可以降低模型对算力资源的消耗。例如,在NLP领域有一种叫做知识蒸馏的技术方法,可以将一个大型模型(教师模型)训练出来的知识传递给一个小型模型(学生模型),使得小型模型可以在保持较高精度的同时减少运算量;

AI服务器价格水涨船高,大模型时代下的算力之困

– 利用边缘计算:这是一个架构层面的方案。通过利用边缘计算技术,在离数据源更近、更分散、更灵活的边缘节点上进行数据处理和分析,并将结果返回给云端或终端设备。这样可以减少对云端中心化算力资源的依赖和消耗,并提高数据处理效率和安全性;

– 探索新型硬件:这是一个创新层面的方案。通过探索新型硬件设备和技术来提升或替代传统GPU芯片在人工智能领域中的作用。例如,有一种叫做神经网络处理器(NPU)的专用芯片,可以针对神经网络的特点进行优化设计,提高运算速度和效率;还有一种叫做光子计算的新兴技术,可以利用光子代替电子进行数据传输和处理,实现超高速度和超低功耗的计算。


严正声明:本文为元宇宙简史原创,未经授权禁止转载!内容仅供参考交流,不构成任何投资建议。任何读者若据此进行投资决策,风险自担。

© 版权声明

相关文章