随着今年ChatGPT等大模型的爆火,AI芯片也遭到了全世界的疯抢,因为AI芯片是整个AI大潮中的算力基础,是专门用于处理人工智能应用中的大量计算任务的模块。其价格也随着需求水涨船高。
约翰·卡马克是Keen Technologies CEO和著名游戏开发者,他最先注意到英伟达AI旗舰芯片H100的售价在多个商铺超过了4万美元。至少有6家店铺在海外电商平台eBay上出售H100。通常情况下,英伟达的AI芯片如A100、H100等主要销售给企业客户,而非公开市场零售,但存在一定的炒作空间。
在ChatGPT推动的人工智能领域,GPU对于训练AI模型至关重要。微软已经投入数亿美元购买了数万颗A100芯片用于开发ChatGPT。此外,英伟达还有搭载自家GPU的超级计算机DGX,配置有8块GPU。在今年的英伟达开发者大会(GTC)上,英伟达推出了AI云服务DGX Cloud,向用户提供可租借的算力服务,用于训练生成式AI大模型。
英伟达中国的CEO黄仁勋在GTC期间向媒体表示,将继续与云服务商合作,推出该服务。在阿里巴巴、腾讯、百度等云服务合作伙伴的支持下,他们有能力向中国出货符合美国出口管制条件的定制版A800和H800芯片,作为中国"特供版"。
国内云厂商已经开始广泛使用英伟达的新款GPU。最近,腾讯宣布推出新一代的高性能计算集群,装备英伟达最新的中国特供版GPU H800,服务器间的连接带宽高达3.2Tbps。腾讯表示,该服务器集群算力性能较前代提高了3倍,将腾讯自研的"混元NLP大模型"训练时间从11天缩短至4天。
对于H800在国内的出货情况,英伟达相关人士表示,客户已经开始预定。据知情人士透露,包括服务器和互联网厂商在内的国内企业正争相购买A800、H800芯片,其中大约一半在今年已经销往互联网公司。H800的产量较少,由于订购增多,交付时间最快要到12月份。