2023-05-14 15:21:42 来源:金融界 阅读量:16171
在持续已久的“AI热潮”中,各家争相推出的大模型、AI应用,都进一步推升了对算力狂热的需求。本周已有报道指出英伟达后续对AI顶级规格芯片需求明显看增,紧急向台积电追加预订先进封装产能。
,有代理商透露,英伟达A100价格从去年12月开始上涨,截至今年4月上半月,其5个月价格累计涨幅达到37.5%;同期A800价格累计涨幅达20.0%。
同时,英伟达GPU交货周期也被拉长,之前拿货周期大约为一个月,现在基本都需要三个月或更长。甚至,部分新订单“可能要到12月才能交付”。
供需的巨大鸿沟面前,在这一情形之下,众多客户也不得不“勒紧腰带”。上述文章指出,国内可用于训练AI大模型的A100大约有4万-5万个,供应相当吃紧,一些云服务厂商已严格限制内部使用这些先进芯片,以将其保留至需要强力运算的任务。
值得一提的是,类似的事情在微软内部也早已发生。3月已有外媒报道指出,微软内部陷入AI服务器硬件短缺的窘境,不得不对AI硬件资源采取“配额供给”机制,限制公司内部其他AI工具开发团队的资源用量。
拉长时间线来看,有GPU业内人士指出,实际上从去年6月起,英伟达就已宣布上调A100价格,涨幅20%左右,渠道商在加紧囤货。至于英伟达A800,在ChatGPT火爆之前就已出现涨价,但反映到市场则有一定的滞后性,赶上ChatGPT爆火这一时间点,更放大了这一现象。
“英伟达GPU涨价与ChatGPT有一定的关联性,且交货周期也受到了连带的影响,导致市场上出现了众多炒卡的行为。”
此外,在海外电商平台上,英伟达新旗舰级GPU H100的价格在4月中旬就已炒到了超过4万美元。
随着如今各家科技巨头争相推出自家大模型,GPU需求量仍在持续攀升。OpenAI指出,AI大模型要持续取得突破,所需要消耗的计算资源每3~4个月就要翻一倍,资金也需要通过指数级增长获得匹配。
据财通证券测算,2023/2024/2025年大模型有望为GPU市场贡献69.88/166.2/209.95亿美元增量。
其中在训练端,以目前主流的训练端GPU英伟达A100测算,假设ASP为1万美元,2023/2024/2025年全球训练端GPU需求市场规模预计分别为0.74/2.00/4.07亿美元;
在推理端,以目前英伟达用于推理端计算的A10测算,假设ASP为2800美元,2023/2024/2025年全球推理端GPU需求市场规模预计分别为69.14/164.2/205.88亿美元。
业内人士也表示,AI大模型训练成本之一是基础算力,大概需要384-3000块左右的A100才能基本满足要求,如果价格持续上涨,无论是互联网、AI大厂、还是创业新贵,要追加的投入都可能远超当初。