Meta正在加大对定制AI芯片的投入,随着大型科技公司减少对英伟达依赖的竞争日益激烈。该公司表示,它于2023年启动了Meta训练和推理加速器(MTIA)项目,现在正准备在未来两年内推出四代新芯片。
据Meta称,这些芯片据称是为Meta产品中的排名、推荐和生成式AI工作而构建的。该公司还表示,它不会押注于单一供应商或单一硬件。Meta计划继续从多个行业参与者购买芯片,同时将MTIA置于其自身AI基础设施计划的核心。
用该公司的话说,随着AI工作负载的增长和变化,它正在采取”组合方法”。这意味着将外部芯片与内部芯片混合使用,而不是将整个堆栈交给一个供应商。

Meta以更快的时间表推出四代MTIA芯片
Meta表示,它已经在使用数十万个MTIA芯片进行与其应用程序中有机内容和广告相关的推理工作。这些芯片是为公司自身的工作而构建的,不是为通用用途设计的。
这一点很重要,因为Meta表示该硬件是定制全栈解决方案的一部分,这为它每天运行的工作提供了更优化的系统。该公司表示,与更广泛用途的芯片相比,这种设置为其特定用例提供了更好的计算效率并降低了成本。
下一阶段是更大规模的推出。Meta表示正在构建MTIA 300、400、450和500,每个版本都在计算、内存带宽和效率方面带来提升。MTIA 300已经投入生产,将处理排名和推荐训练。MTIA 400、450和500可以运行所有工作负载,但Meta表示这些芯片在近期和到2027年将主要用于生成式AI推理生产。
该公司还表示,这些芯片是模块化的,可以让新芯片轻松融入现有的机架系统基础设施。这减少了设计和部署之间的等待时间。
在发布速度方面,Meta表示行业通常每1-2年发布一款新的AI芯片,但现在通过重用模块化设计,它有能力每六个月或更短时间发布自己的芯片。
Meta围绕推理和开放标准构建AI芯片战略
该公司表示,其MTIA战略基于三个部分:快速迭代、推理优先设计以及通过通用标准轻松采用。
关于第一点,Meta表示较短的发布周期有助于它在AI技术变化时更快调整,引入更新的硬件技术,并降低开发和部署新芯片版本的成本。
关于第二点,Meta将其计划与通常的市场模式区分开来。该公司表示,大多数主流芯片首先是为大型生成式AI预训练工作构建的,然后用于其他工作,通常成本效益较差。Meta表示它正在做相反的事情。MTIA 450和500首先为生成式AI推理进行优化,然后在需要时用于排名、推荐训练和推理以及生成式AI训练。
该公司还表示,MTIA从一开始就基于标准工具和系统构建,包括PyTorch、vLLM、Triton和开放计算项目。其系统和机架设计也遵循OCP标准,以便在数据中心中使用。
Meta补充说,没有单一芯片能够满足其所有需求,这就是为什么它计划为不同的工作负载部署不同的芯片,同时朝着它所谓的”全民个人超级智能”方向推进。
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/03/12/meta%e5%ae%a3%e5%b8%83%e6%9c%aa%e6%9d%a5%e4%b8%a4%e5%b9%b4%e5%86%85%e5%b0%86%e6%8e%a8%e5%87%ba%e5%9b%9b%e4%bb%a3mtia-ai%e8%8a%af%e7%89%87/