找回密码
 加入我们
搜索
      
查看: 4197|回复: 23

[通讯科技] 消息称 Meta 首款自研 AI 训练芯片启动测试,意在摆脱对英伟达的依赖

[复制链接]
发表于 2025-3-12 21:29 | 显示全部楼层 |阅读模式
原文链接:https://www.ithome.com/0/837/040.htm

IT之家 3 月 11 日消息,据路透社报道,社交媒体公司 Meta(旗下拥有 Facebook、Instagram 和 WhatsApp)正在测试其首款用于训练人工智能系统的自研芯片。据两位知情人士透露,此举标志着 Meta 在减少对外部供应商(如英伟达)的依赖、并逐步向设计更多定制化芯片方面迈出了关键一步。

消息称 Meta 首款自研 AI 训练芯片启动测试,意在摆脱对英伟达的依赖

报道称,Meta 已开始小规模部署这款芯片,并计划如果测试顺利,就增加产量以进行大规模使用。Meta 推动开发内部芯片是其长期计划的一部分,目的是降低庞大的基础设施成本。

据预测,Meta 在 2025 年的总支出将在 1140 亿至 1190 亿美元(IT之家备注:当前约 8277.36 亿至 8640.41 亿元人民币)之间,其中包括高达 650 亿美元的资本支出,而其中大部分将用于人工智能基础设施建设。消息人士称,Meta 的这款新训练芯片是一款专用加速器,专门用于处理人工智能相关任务,这使其相比通常用于人工智能工作负载的集成图形处理单元(GPU)更具能效优势。

此外,Meta 正在与中国台湾地区的芯片制造商台积电合作生产该芯片。此次测试部署是在 Meta 完成芯片的首次“流片”后启动的。流片是硅片开发工作中的一个重要里程碑,涉及将初步设计送入芯片工厂进行生产。通常,流片的成本高达数千万美元,耗时约三至六个月,且无法保证测试一定成功。一旦失败,Meta 将不得不诊断问题并重新进行流片。

尽管 Meta 的自研芯片计划在过去几年中曾遭遇波折,甚至一度放弃了一款处于类似开发阶段的芯片,但该公司仍在持续推进相关工作。去年,Meta 开始在其推荐系统中使用一款自研的推理芯片,用于运行 Facebook 和 Instagram 新闻推送中的人工智能系统。Meta 高管表示,他们计划从 2026 年开始使用自研芯片进行训练,即通过向人工智能系统输入大量数据来“训练”其执行任务的计算密集型过程。

Meta 首席产品官克里斯・考克斯(Chris Cox)在上周的摩根士丹利科技、媒体和电信会议上表示:“我们正在研究如何为推荐系统进行训练,以及如何逐步思考生成式人工智能的训练和推理。”他将 Meta 的芯片开发工作形容为“从爬行到行走再到奔跑”的过程,但同时指出,第一代用于推荐系统的推理芯片取得了“巨大成功”。

然而,Meta 此前曾因一款自研推理芯片在类似的小规模测试部署中失败而暂停相关项目,并在 2022 年转而向英伟达订购了价值数十亿美元的 GPU。此后,Meta 一直保持作为英伟达的最大客户之一,购买了大量 GPU 用于训练其模型,包括推荐系统、广告系统以及其 Llama 基础模型系列。这些芯片每天还为超过 30 亿使用 Meta 应用程序的用户提供推理服务。

今年,随着人工智能研究人员对通过不断增加数据和计算能力来“扩展”大型语言模型的潜力表示怀疑,这些 GPU 的价值受到质疑。这种怀疑在 1 月底被中国初创公司 DeepSeek 推出的新低成本模型进一步强化,这些模型通过更依赖推理而非计算能力来优化效率。受 DeepSeek 影响,全球人工智能股票市场出现大幅波动,英伟达的股价一度下跌了五分之一,尽管随后大部分跌幅被收回,但近期又因贸易担忧等因素再次下跌。
 楼主| 发表于 2025-3-12 21:32 | 显示全部楼层
本帖最后由 声色茶马 于 2025-3-12 21:34 编辑

转过来主要是想讨论个技术问题。各路大佬比如微软谷歌特斯拉啥的都宣称自研AI芯片,喊了很久了。华为升腾甚至已经大规模开始部署了。

话说这些AI专用芯片都是啥架构的?它们的每瓦推理性能超越皮衣黄的GPU了么?
发表于 2025-3-12 22:11 | 显示全部楼层
声色茶马 发表于 2025-3-12 21:32
转过来主要是想讨论个技术问题。各路大佬比如微软谷歌特斯拉啥的都宣称自研AI芯片,喊了很久了。华为升腾甚 ...

升腾侧重于推理吧 ,训练还是不行,当然买不到nv的卡也可以用
发表于 2025-3-12 22:28 | 显示全部楼层
好好好 希望1999买到 7080
发表于 2025-3-12 23:44 | 显示全部楼层
每年几百亿美金,AI 现在到底赚了多少钱
发表于 2025-3-13 01:36 | 显示全部楼层
rukky 发表于 2025-3-12 06:11
升腾侧重于推理吧 ,训练还是不行,当然买不到nv的卡也可以用

1000个910C相当于7500个H100
1个910C相当于1个H100
发表于 2025-3-13 08:16 | 显示全部楼层
是AI芯片太简单还是meta太强啊,这都是说搞就搞
 楼主| 发表于 2025-3-13 09:56 | 显示全部楼层
本帖最后由 声色茶马 于 2025-3-13 09:58 编辑
JiaYu 发表于 2025-3-13 08:16
是AI芯片太简单还是meta太强啊,这都是说搞就搞


说得就是啊。AI芯片这东西真是,微软、谷歌、meta,家家都搞啊。大有当年386,486那时候,什么cyrix,amd,ti……是个有名有姓半导体企业都在造386。

但是反差的是,一堆一直搞芯片搞AI的比如寒武纪、摩尔线程啥的,反而没啥大动静。是路线问题还是咋地?
发表于 2025-3-13 10:02 | 显示全部楼层
摆不摆脱的……反正最后还是落到台积电代工上,台积电的产能应该是已经快挤得一滴都不剩了
发表于 2025-3-13 10:03 | 显示全部楼层
JiaYu 发表于 2025-3-13 08:16
是AI芯片太简单还是meta太强啊,这都是说搞就搞

AI芯片简单,当然这些大公司也大把的资源挖人才
发表于 2025-3-13 10:59 | 显示全部楼层
声色茶马 发表于 2025-3-13 09:56
说得就是啊。AI芯片这东西真是,微软、谷歌、meta,家家都搞啊。大有当年386,486那时候,什么cyrix,amd ...

386系列是IBM强制Intel授权出来的,是相互兼容的。
AI训练芯片,除NV外最强的应该就算Google的TPU系列了吧。不过不开放给外人用。

这东西最大的问题还是环境。NV的支持最好,用起来最方便。其他家的需要从底层开始写驱动,很麻烦。
如果不做针对某种架构的硬件优化,走通用路线,那所有可能用到的底层驱动都得实现一遍,以方便上层开发。这不仅工程浩大,而且永远跟在NV后面跑而无出头之日。
如果做了针对性的硬件优化,随着技术迭代,旧的底层架构被淘汰了,那就更难用了。比如早年的CNN/RNN架构已经基本上被Transformer替代了,而Transformer架构还在不断改进之中,太早硬化也是死路一条。
发表于 2025-3-13 11:57 | 显示全部楼层
等待等待 发表于 2025-3-13 10:59
386系列是IBM强制Intel授权出来的,是相互兼容的。
AI训练芯片,除NV外最强的应该就算Google的TPU系列了 ...

对大公司来说,搞自己生态还是很有价值的,这就是为啥MI300明明就一般,但是微软还是在大量买一样。微软的想法比较务实,就是挑选一家这方面已经有积累的公司,一起投入研发,和AMD一起解决软件问题。

推理的话,硬化也无所谓,因为推理芯片设计周期很短,本来就可以快速迭代。
发表于 2025-3-13 13:05 | 显示全部楼层
shiangyeh 发表于 2025-3-13 11:57
对大公司来说,搞自己生态还是很有价值的,这就是为啥MI300明明就一般,但是微软还是在大量买一样。微软 ...

搞自己生态的结果就是,比如DeepSeek出来了,代码是基于NV的。Google需要自己移植到TPU上,HW需要自己移植到昇腾上,其他也类似。
那将来出什么新的模型呢?是不是还要继续折腾?
发表于 2025-3-13 15:14 | 显示全部楼层
等待等待 发表于 2025-3-13 13:05
搞自己生态的结果就是,比如DeepSeek出来了,代码是基于NV的。Google需要自己移植到TPU上,HW需要自己移 ...

你说的前提是这些公司需要其他的llm,Google 微软 meta自己本身就是提供llm的厂商,这本来就是竞争的一环,不可能因为担心会输就提前投降,那才是蠢。
发表于 2025-3-13 20:42 | 显示全部楼层
这很难吧, NV也是一时蒙对的DLSS补帧结果演变成算力。
在硬件上还有别的弯道超车?
发表于 2025-3-14 08:22 | 显示全部楼层
liushihao 发表于 2025-3-13 20:42
这很难吧, NV也是一时蒙对的DLSS补帧结果演变成算力。
在硬件上还有别的弯道超车? ...

NV的运气确实不错
发表于 2025-3-14 09:33 | 显示全部楼层
liushihao 发表于 2025-3-13 20:42
这很难吧, NV也是一时蒙对的DLSS补帧结果演变成算力。
在硬件上还有别的弯道超车? ...

从结果上看dlss肯定是后来才定下的
gpgpu路线和布局cuda才是你说的蒙对的发展方向
 楼主| 发表于 2025-3-14 09:48 | 显示全部楼层
本帖最后由 声色茶马 于 2025-3-14 09:56 编辑
MolaMola 发表于 2025-3-14 09:33
从结果上看dlss肯定是后来才定下的
gpgpu路线和布局cuda才是你说的蒙对的发展方向 ...


附议,主要是赢在CUDA。其实更早从第一代nv1押注显卡,也就是压住大规模并行计算,就冥冥中踩中点了。后来geforce256那里又踩中一次。皮衣黄似有天命,确实不俗。
 楼主| 发表于 2025-3-14 09:51 | 显示全部楼层
等待等待 发表于 2025-3-13 13:05
搞自己生态的结果就是,比如DeepSeek出来了,代码是基于NV的。Google需要自己移植到TPU上,HW需要自己移 ...

确实,目前大模型所需的硬件架构和软件架构都还在野草丛生,野蛮生长的阶段。nv不过是赢得早,看起来像一棵大树而已。最后鹿死谁手,窃以为还不好说。
发表于 2025-3-14 17:21 | 显示全部楼层
就是MTIA呗,META吹了好几年了,实际产品还是云山雾罩
发表于 2025-3-14 20:11 | 显示全部楼层
MolaMola 发表于 2025-3-14 09:33
从结果上看dlss肯定是后来才定下的
gpgpu路线和布局cuda才是你说的蒙对的发展方向 ...

有谁还记得最早的比较普及的gpgpu应用是跑在A卡上的Floding@home,这方面A卡当时还算是领先Nv的

之后才是Nv的8800GTX,并且推出了cuda

当然8800是在这里结实的走了一大步,从此gpgpu的道路上Nv就是一路领先了,A卡一直都落后,相关投入也不足
发表于 2025-3-17 09:39 | 显示全部楼层
asdm 发表于 2025-3-14 20:11
有谁还记得最早的比较普及的gpgpu应用是跑在A卡上的Floding@home,这方面A卡当时还算是领先Nv的

之后才 ...

当时的互联网还有一点点共享精神,记得ps3都可以参与这个项目
发表于 2025-3-19 11:18 来自手机 | 显示全部楼层
本帖最后由 用户 于 2025-3-19 11:23 编辑
asdm 发表于 2025-3-14 20:11
有谁还记得最早的比较普及的gpgpu应用是跑在A卡上的Floding@home,这方面A卡当时还算是领先Nv的

之后才 ...


A卡在高度优化下,直到vega系列挖矿都是领先。N卡从10系后期才逐步全面超越。

以前opencl还是勉力能和cuda对打的,学校学生写写opencl也有科研拿,很多人去学。后来在深度学习起飞之前就没砍钱了。一系列操作也是很迷,就像是进了内奸一样。早先装cuda下个nvidia的sh就装上了,装opencl则是这个版本不兼容,那个版本也不兼容,就跟没人维护一样。
发表于 2025-3-22 21:17 | 显示全部楼层
liushihao 发表于 2025-3-13 20:42
这很难吧, NV也是一时蒙对的DLSS补帧结果演变成算力。
在硬件上还有别的弯道超车? ...

NV多少年前就布局高性能运算了!
06就发布cuda,那会谁去补帧
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-23 08:24 , Processed in 0.011995 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表