发布时间:2025-03-12 来源:芯智讯-浪客剑
3月12日消息,据路透社引述2名知情人士的话报道称,Meta正在测试第一颗自主研发的用于训练AI系统的RISC-V构架芯片,这款定制化设计的芯片将符合Meta自身的运算需求,并降低对于英伟达(NVIDIA)等AI芯片大厂的依赖。据了解,Meta这款自研AI芯片的测试,是在芯片完成设计定案(即所谓tape-out)后展开的。一次tape-out成本可达数千万美元,大约需要3~6个月完成,且无法保证测试必定成功。万一失败,Meta需要找出芯片设计问题并重新tape-out步骤。Meta 之前曾在一次小规模测试部署中,推出一款自研的AI推理芯片,但由于表现不佳而取消,转而在2022年下单采购数十亿美元的英伟达GPU。自此之后,Meta 成为NVIDIA一大客户,累积大量GPU用于训练模型,包括用于内容推荐与广告系统、以及大型语言模型Llama,同时也为每天使用Meta旗下社交媒体平台体超过30亿用户执行推理工作。
但是这也使得Meta在采购英伟达GPU上耗费了大量的资金。因此,Meta还是希望通过自研AI芯片来降低成本。一名知情人士表示,不同于Meta此前推出的MTIA系列AI推理芯片,Meta 最新曝光的这款自研的AI芯片,是专门为AI训练任务所设计,预期还将整合HBM3或HBM3E內存。由于是定制化设计,因此这款芯片的尺寸、功耗及性能可以实现最优化,有望比用于同样AI工作负载的GPU更高效。预计其每瓦性能表现可以与英伟达最新的GPU(如H200、B200,甚至是下一代B300等)竞争。另一知情人士则称,Meta这款自研的AI芯片将交由台积电代工。对此传闻,Meta与台积电均拒绝发表任何评论。值得注意的是,自研芯片是Meta长期计划的一部分,目的是降低AI基础设施所带来的成本。实际上,Meta 预估2025年总支出介于1,140~1,190亿美元之间,其中资本支出上看650亿美元,主要用于AI基础设施建设,其中就包括自研AI芯片。
2023年,Meta就曾推出了首款自研AI芯片MTIA(MTIA v1),采用的是台积电7nm制程。而在2024年推出的第二代MTIA同样是交由台积电代工,不过制程工艺升级到了5nm,配备更多处理核心,片内存储(on-chip memory)也翻倍到了256MB(MTIA v1 仅有128MB),off-chip LPDDR5也提高到了128GB(MTIA v1 为 64GB),主频也从800MHz上升到了1.35GHz,当然功耗也增加到了90W(MTIA v1 为 25W)。需要指出的是,这两代MTIA芯片都主要用于推理应用。
△MTIA v2
Meta当时曾透露,第二代MTIA已投入16个数据中心区域使用,主要用于决定Facebook与Instagram动态消息显示的内容推荐系统。Meta也承认,第二代MTIA不会取代目前用于训练模型的GPU,而是补充运算资源。Meta首席产品官Chris Cox在上周举行的摩根士丹利科技、媒体和电信大会表示,“我们正在研究如何训练推荐系统,最终考虑如何对生成式AI进行训练和推理”。他形容Meta的芯片开发任务目前处于“从走路到爬行再到奔跑”的阶段,内部认为用于内容推荐系统的第一代推理芯片是一大成功。Meta希望2026年开始在AI训练阶段使用自研芯片。显然,这也意味着此次曝光的Meta自研的AI训练芯片如果获得成功的话,可能将会在2026年进入大规模部署。