"); //-->
北京时间12月7日,AMD在美国加州圣何塞举办的Advancing AI大会上正式发布两款AI芯片旗舰产品,Instinct MI300X与MI300A。
MI300X是专为生成式AI智能算力设计的数据中心GPU,正面对标英伟达H100;MI300A则是专为超级计算机设计的APU产品。APU为AMD在2011年提出的升级版CPU概念,其将CPU和GPU组合在同一个晶片上,以满足超级计算机高性能计算的要求。
与年中发布会预热透露的产品性能一致,MI300X由台积电代工,其基于自家最新的第三代CDNA架构,集成了高达1530亿个晶体管,为历代产品之最。英伟达H100则拥有800亿个晶体管。在衡量AI芯片算力的关键指标上,对应8位精度浮点数(FP8)计算,MI300X 可以达到42 petaFLOPs(每秒千万亿次浮点运算),H100则为32 petaFLOPs。
此外,专为生成式AI大语言模型设计的MI300X内存高达192GB,超过了英伟达H100芯片的120GB内存。按照AMD CEO 苏姿丰(Lisa Su)此前提出的“内存容量越多,芯片可以处理的模型集越大”说法,随着大模型的规模复杂性不断增加,且训练好的模型在推理环节需要更大的算力,内存的扩容是AI芯片的进化趋势。目前,集合8张MI300X的Instinct工作台已经可以支持运行Llama2 (700亿参数)、BLOOM(1760亿参数)大模型的训练与推理。
AMD并未在发布会现场公布MI300X产品的售价。而据CNBC报道,英伟达的一款晶片售价约为40000美元。苏姿丰此前曾表示,“AMD的新产品价格和运营成本必须低于英伟达才能说服客户。”
早在新品正式问世前,AMD就被外界视为打破英伟达垄断AI算力市场的“多一种选择”,算力紧缺又使这种需求愈发迫切。
据AMD方面表示,Meta、微软都已加入求购MI300X的名单。根据市场调研公司Omdia统计,Meta和微软此前都是英伟达H100 GPU的最大买家,采购数量均高达15万张左右。微软CTO Kevin Scott在发布会现场表示,微软计划将在Azure云服务产品中运用MI300X。此外,甲骨文、OpenAI,以及戴尔、惠普、联想等电脑厂商也被曝正与AMD协商采购计划。
据悉,AMD明年数据中心AI GPU产品的收入将远远超过20亿美元。
时下,AI算力的暴涨正使得未来市场向着更大的规模扩张。苏姿丰预测数据中心AI芯片的总市值将突破450亿美元,远高于AMD 6月预测的300亿美元。到2027年,市场将进一步扩张至4000亿美元,超过其先前预测的两倍有余。
包括IDC在内的多家机构调研数据显示,全球AI算力接近90%的市场目前被英伟达占据。按照Omdia的统计,至今年第三季度,英伟达共售出了近50万张A100和H100 GPU。考虑到大型云厂商、主流大模型公司的采购订单都以1万张起步,AI算力缺口中仍有英伟达替代品的机会。
苏姿丰认为英伟达目前占据统治地位是不争的事实,但AI算力市场的未来规模巨大,AMD仍能分一杯羹,“AMD不一定要击败英伟达才能在市场上取得成功。”
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。