| 权衡财经

中国成最大变量 英伟达AI芯片上演“四面埋伏”

作者:冯庆艳

这两天,“黄仁勋穿东北大花热舞”上了热搜。

英伟达创始人兼CEO黄仁勋,在公司中国区年会上,顶着一头干练利落的花白短发,黑色体恤外,套着一件东北大花马甲,两手各顶一只红手帕,投入地跳起了东北二人转。这一热舞的视频、照片,于1月20日晚间开始在社交媒体广泛流传。

黄仁勋热舞抢镜前,英伟达的市值再创新高。截至美东时间1月22日,英伟达收报596.54美元/股,总市值高达1.47万亿美元。4天前,Meta首席执行官扎克伯格称,2024年底前将获得约35万块来自英伟达的H100 GPU。2024年以来,英伟达股价累计涨幅已超过20%。

然而,处于巅峰的英伟达,却是喜忧参半。AI芯片市场,英伟达的王者地位,虽短期难以撼动,但除了老对手AMD紧追不舍,微软、谷歌、亚马逊、华为等诸多超级科技公司试图分羹。受美国越来越收紧的对华芯片出口限制政策影响,中国市场由此成为其最大变量,在此背景下,英伟达面临着化解中国市场流失的难题。

英伟达CEO穿 “东北大花”

黄仁勋已有数年未进入中国大陆,2023年6月曾有来中国大陆传言,但未成行。直到2024年1月,才真正得以实现。

黄仁勋这次到访“保密工作”非常到位,他的到来与离开,都显得“静悄悄”。

直到1月20日晚间,他的一些热舞视频传出,才被媒体证实,而彼时他已离开。

据第一财经报道,黄仁勋此行未涉及与政府官员的会面,也没有重大的商业发布,最主要的目的是与中国员工“欢度美好时光”。

流出的视频显示,除了穿东北大花马甲热舞,黄仁勋在年会上还作了演讲,并主持了抽奖。

对此,IDC亚太区研究总监郭俊丽表示,黄仁勋近期对北京、上海、深圳三大城市办公室进行访问,参与了中国区年会活动,和团队进行面对面的沟通和交流,共商中国区市场战略。

公开资料显示,英伟达在中国大陆拥有近3000员工,涉及市场、销售、研发等职能部门,在北京、上海、深圳等地均设有办公室。

“黄仁勋一直非常重视中国市场,面对国际地缘政治,其想方设法服务中国市场。” IDC亚太区研究总监郭俊丽分析说,“此次行程不仅强化了中国市场在英伟达全球战略布局中的重要性,更增强了该公司对中国市场未来布局的信心。”

2023年12月6日,黄仁勋曾公开透露,中国市场占了英伟达总营收的20%。可见,中国市场是英伟达一个至关重要的市场。

“中国市场是全球数一数二的消费市场,包括计算机、通信等等领域,消费和购买体量非常庞大,英伟达重视中国市场是毫无疑问的。”资深产业经济观察家梁振鹏表示。

来华“稳人心”

众所周知,近两年美国对华芯片出口限制一再收紧,英伟达因此面临在中国市场份额流失的难题。

2023年底,英伟达发布了H200芯片,计划2024年第二季度正式供货,H200因推理速度比H100提高近2倍,能耗却降低了一半的优异表现,被称为“史上最强”芯片。

不仅H200无缘中国公司,英伟达其他产品也都将面临该命运。

2022年10月,受美国一系列AI芯片出口限制措施影响,英伟达A100和H100两款AI处理器,无法向中国市场提供,英伟达只能通过“减量不减价”的A800和H800芯片,实现对中国市场的特供。

2023年10月,美国进一步收紧对华芯片出口管制,A800和H800芯片无法继续向中国市场出售,面向“发烧级”电脑游戏玩家的RTX 4090芯片,也在中国市场被下架,新规于2023年10月23日便开始生效。

美国新对华芯片限售政策实施之后,中国科技公司纷纷提及其影响。

2023年11月15日,腾讯总裁刘炽平在腾讯控股(00700.HK)财报电话会议上称,目前,腾讯拥有最大的 AI 芯片库存之一,有足够的筹码支持腾讯混元大模型,未来至少几代的更新发展。不过,管制确实影响到腾讯将AI芯片资源作为云服务对外租赁的能力。

第二天晚间,阿里巴巴集团发布的2024财年第二季度(即2023自然年第三季度)财报提及,阿里不再推进云智能集团的完全分拆,主要原因则是,美国扩大先进计算芯片出口管制,给阿里云智能集团前景带来不确定性。

这一次,英伟达的策略还是进一步算力“大减量”,而价格仅是“略降”。英伟达开发出符合美国最新出口规则的三款“改良版”芯片,即HGX H20、L20 PCle和L2 PCle,预计2024年第一季度开始量产。

半导体研究机构Semianalysis调研报告显示,用于AI模型训练的H20提供96GB内存、4TB/s内存带宽和296 teraFLOPS FP8性能。理论上,其整体算力比英伟达H100 GPU芯片下降80%左右。

价格略降,但整体算力却下降了80%,这导致中国企业热情不高。

英伟达2023年11月22日发布了2023年第三季度财报,财报提及,美国新规实施后,预计第四季度在中国的销售额将大幅下降。

TrendForce分析师认为,中国云计算公司目前80%的高端芯片来自英伟达,未来5年可能会降到50%-60%。

黄仁勋此次来访,虽然未有商业会见,“稳人心”的战略意义凸显。

“竞合”新格局

近几天,英伟达的两个大客户,OpenAI和Meta,上演了“向左走,向右走”。

OpenAI不再满足于向英伟达购买GPU,将手伸向GPU上游生产端。1月20日,据彭博社报道,OpenAI首席执行官山姆·奥特曼 (Sam Altman)正在筹集资金建设半导体生产设施,生产用于人工智能 (AI) 应用的处理器 。

另一科技巨头Meta则选择了继续加码抢购英伟达的GPU。美东时间2024年1月18日,Meta首席执行官扎克伯格宣布,Meta计划在2024年底前获得约35万块来自英伟达的H100 GPU。再算上其他GPU,拥有的算力总和将接近于60万块H100所能提供的算力。

据Raymond James的分析师估计,英伟达H100的售价在2.5万美元至3万美元之间,而在eBay等平台上,其售价甚至可能超过4万美元。购买35万块H100的话,需要Meta掏出大概90亿美金的巨资。

奥特曼曾担忧GPU的短缺以及带来的巨大费用,这或许是他选择筹建GPU工厂的主要原因之一,同时,试图尽量降低英伟达对其的“卡脖子”风险。

选择涉足GPU上游领地的英伟达客户,不止有OpenAI,还有谷歌、亚马逊、特斯拉、阿里、百度、微软等一长串名字,它们都宣布将自研AI芯片。

“互联网大厂纷纷下水亲自造芯,我们认为,短期内对整体行业的竞争格局影响不大,因为英伟达具有技术、产品、生态、经验等全方位的领先优势,”郭俊丽表示,“长期来看,随着各大公司能够不断增加自给自足的份额,可能会对AI芯片的竞争格局产生一定影响。”

而受英伟达产能限制,包括H100在内等产品交付周期比较漫长。Omdia的统计数据显示,英伟达在2023年第三季度大概售出了50万块A100和H100计算卡。基于H100构建的服务器交付周期大概需要36周到52周不等。

这无疑让英伟达的竞争对手们看到了机会。英伟达多年来的老对手是AMD,在GPU领域,英伟达与AMD两者几乎瓜分了全球市场份额,前者占八成左右,后者占二成左右。

2023年12月6日,AMD推出MI300x,宣称表现优于英伟达的H100,试图打一个翻身仗。不过风头被英伟达一周后发布的H200抢走。

英特尔也宣布,将在2024年上市一款GPU产品,名叫Gaudi 3,性能超过英伟达的H100。

梁振鹏认为,AI芯片涉及范围非常广,各个企业擅长的领域也各有不同。英伟达擅长的自然是GPU,也就是图形处理器;英特尔擅长的领域是CPU,即中央处理器等等,企业间并非一味的竞争关系,而是“竞争与合作”的关系,上下游产业链合作,互相采购是很正常的事情。

谁是人工智能时代的最大变量?

OpenAI缔造的ChatGPT,是这波生成式AI浪潮的引领者。

生成式人工智能的核心三要素是数据、算法、算力。而算力这一项,正是英伟达走向巅峰的武器。

2023年10月发布的一份报告显示,OpenAI目前在其流行的ChatGPT服务中主要使用的是英伟达的A100和H100 GPU。

ChatGPT-4、Gemini、Llama 2和其他型号等大模型训练,都离不开英伟达的H100 GPU。这便是英伟达所向披靡的关键之一。

“抢英伟达的GPU”,是过去1年全球各大科技公司的常态。

研究机构Omdia最新报告给出一组数据,2023年,微软和Meta两家公司各抢走了15万块英伟达H100 GPU,谷歌、亚马逊和甲骨文等分别购入5万块,腾讯购入5万块H800 GPU,百度和阿里巴巴分别抢到3万块、2.5万块A100 GPU。

目前,全球数据中心AI加速市场份额的82%由英伟达占据,同时,英伟达在全球 Al训练领域的市场份额高达95%。

英伟达在中国市场也是独占鳌头。IDC调研显示,2022年,中国AI加速卡(即AI训练芯片)出货量约为109万张,其中,英伟达市场份额为85%。

可以说,OpenAI凭借一己之力,成功引爆人工智能革命,为多年“卖铲子”的英伟达扭转了乾坤。2023年是英伟达独占鳌头的一年。2023年英伟达股价暴涨了234%,市值也冲上万亿美金。

人工智能革命引爆了上游GPU的需求空间。根据测算,2023-2027年全球大模型训练端峰值算力需求量的年复合增长率为78%。2023年全球大模型训练端所需全部算力换算成的A100总量超过200万张。

中国市场受美国限售政策影响,恐将成为英伟达此时最大的变量。若英伟达无法化解供应难题,华为恐将成为最大的潜在受益者。

黄仁勋2023年12月6日也公开表示,在生产“最好的”人工智能芯片的竞赛中,华为是英伟达“非常强大”的竞争对手之一。

黄仁勋强调,华为、英特尔和不断壮大的半导体初创公司,对英伟达在人工智能芯片市场的主导地位构成了严峻挑战。

百川智能创始人兼CEO王小川曾透露,目前大模型行业,分为训练算力和推理算力,两者合计成本占大模型总成本四成以上。

华为昇腾等几家公司是国产GPU芯片公司当中少有做 AI 训练芯片的,尤其是华为昇腾910B对标的便是英伟达A100。此前科大讯飞董秘、副总裁江涛曾表示,当前华为昇腾910B能力已经基本做到可对标英伟达A100。

对于挑战者来说,一个好消息是,大模型的训练成本占比正在逐渐减小,而推理成本则在不断蚕食训练成本的占比。

2023年12月7日,AMD公司CEO苏姿丰提及,2027年,全球数据中心AI加速器的市场将达到4000亿美元规模,在这4000亿美元当中,将有50%以上的市场来自推理需求。

360公司董事长兼CEO周鸿祎也发现了硅谷的一种趋势,他称,OpenAI、微软、Meta、亚马逊、高通等科技厂商,都在做推理芯片,“未来一到两年,大模型推理过程,将不再需要借助昂贵的GPU,就可以实现技术迭代,把算力成本降下来。我个人觉得,这个成本很快不是问题”。

英伟达另一个护城河则是CUDA(Compute Unified Device Architecture),从CUDA编程框架发展出的一系列软硬件及扩展体系。英伟达从2012年起便开始构建这一系统。

华为昇腾910B便受制于CUDA,因只能兼容CUDA旧的版本,导致下游客户产生犹豫态度,延缓了大规模应用周期。

不过,更多力量开始有意减少CUDA的应用。近期英特尔CEO基辛格公开表示,MLIR、谷歌和OpenAI等都在转向一个“以Python语言为基础的编程层”,以使AI训练更加开放。

正是由于有诸多的潜在风险,虽然处于GPU领域的顶端,黄仁勋的危机感也无处不在。黄仁勋在2023年11月的演讲中表示:“我们不需要假装公司一直处于危险之中。我们(确实)一直处于危险之中。”

玫瑰与荆棘如影随形,这恐怕将成英伟达未来很长一段时间的生存处境,也成为其掌舵者黄仁勋的新考题。

发表评论

您必须 [ 登录 ] 才能发表留言!

相关文章

Baidu
map