①英伟达高管对外透露,全新一代Blackwell架构人工智能GPU芯片B200预计将在今年晚些时候首批交付,售价预计在3万至4万之间。 ②英伟达的最大客户之一——Meta也表示,公司将快速将其应用于训练公司的最新人工智能模型Llama。
财联社3月20日讯(编辑 刘蕊)在英伟达最新发布全新一代Blackwell架构人工智能GPU芯片B200之后,英伟达的最大客户之一——Meta就迫不及待地宣布,公司预计将在今年晚些时候收到Blackwell新品,并将其快速将其应用于训练公司的最新人工智能模型Llama。
周二晚些时候,英伟达高管也对外透露,这一产品预计将在今年晚些时候首批交付,售价预计在3万至4万之间。
Meta:将使用B200训练AI模型
美东时间周一,英伟达在每年一度的GTC 2024大会上上宣布了全新一代Blackwell架构人工智能GPU芯片——B200。据英伟达CEO黄仁勋介绍,B200芯片集成有2080亿个晶体管,是上一代芯片800亿个晶体管的2.6倍,在处理给聊天机器人提供答案等任务时,B200芯片的速度比上一代芯片快30倍。
随后,Facebook母公司Meta平台的一位发言人便表示,该公司预计将在今年晚些时候收到首批英伟达的Blackwell新品。
社交媒体巨头Meta是英伟达最大的客户之一,此前该公司已经购买了数十万颗英伟达上一代芯片H100,以支持其升级内容推荐系统和生成式人工智能产品。
今年1月,Meta首席执行官马克·扎克伯格曾透露,该公司计划在今年年底前储备约35万枚H100芯片。他补充说,与其他GPU相结合,到那时Meta将拥有相当于大约60万个H100的处理器。
美东时间周一,在英伟达发布B200芯片后,扎克伯格发布声明称,Meta计划使用Blackwell产品来训练该公司的Llama模型。
Meta上周宣布,它拥有两个“数据中心级”的GPU集群,据称每个集群包含约24000个H100 GPU,Meta目前正在这两个GPU集群上训练第三代AI模型。
Meta发言人表示,Meta计划继续使用这些集群来训练Llama 3,并将在未来几代AI模型的训练中使用Blackwell产品。
英伟达B200预计年内发货 定价3万至4万美元
美东时间周二,英伟达首席财务官科莱特·克雷斯(Colette Kress)对投资者透露:“我们认为我们将在今年晚些时候首批交付”,但也表示,要等到2025年才会大批量供应。
此外,英伟达CEO黄仁勋也在周二向媒体透露,Blackwell新品的售价将在3万美元至4万美元之间。他预计,英伟达在研发成本上花费了大约100亿美元。
这意味着B200等新品可能将大受欢迎,因为其前代产品H100的定价约在2.5万-4万美元之间,而新产品的性能远超前代。
黄仁勋昨日在GTC会议发表演讲时举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。不只是训练,生成Token的成本也会随之显著降低。