找回密码
 加入我们
搜索
      
查看: 5877|回复: 20

[通讯科技] OpenAI将很快完成内部AI芯片设计 目标2026年量产,采用台积电3nm工艺制造

[复制链接]
发表于 2025-2-13 22:44 | 显示全部楼层 |阅读模式
本帖最后由 mnak888 于 2025-2-14 11:15 编辑


2023年初,由人工智能研究实验室OpenAI开发的Chat**引起了无数网友关注,一度成为了热门话题,也掀开了新一轮的人工智能(AI)浪潮。OpenAI先后投资了数十亿美元,利用英伟达最新的计算卡,以满足处理训练和扩展AI所需的巨大计算负载。另一方面,传出OpenAI正在开发自己的AI芯片,希望可以更高效、更低成本地适配其开发的大型语言模型(LLM),满足未来算力的需求。

OpenAI_T.jpg

据TrendForce报道,OpenAI将在未来几个月内完成其第一款内部AI芯片的设计,朝着减少对英伟达的依赖迈出关键一步。其目标是2026年量产,预计很快会送去台积电(TSMC)进行试产,采用3nm工艺制造。

传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限,不过一定程度上也是制衡英伟达影响力的战略举措。OpenAI的硬件团队由前谷歌芯片专家Richard Ho领导,成员数量已经翻了一番,达到了40人。与此同时,OpenAI还选择与博通合作,引入定制设计。

OpenAI当然不是唯一一间开发内部AI芯片的科技公司,像微软和谷歌过去多年里也是一直这么做的。有报告称,尽管DeepSeek的突破引发了人们对未来芯片需求的怀疑,但飙升的成本和对英伟达的过度依赖正在推动包括OpenAI在内的科技公司寻求替代方案。

新闻来源 https://www.expreview.com/98206.html
发表于 2025-2-13 23:56 | 显示全部楼层
标题丢了一个字母O
发表于 2025-2-14 00:45 | 显示全部楼层
40人就能研发出3nm制程芯片???
发表于 2025-2-14 03:07 | 显示全部楼层
348495990 发表于 2025-2-13 11:45
40人就能研发出3nm制程芯片???

AI芯片相对cpu简单太多了,正常
发表于 2025-2-14 03:39 | 显示全部楼层
348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???

估计难度跟矿机差不多的东西,把现成的算法固化
发表于 2025-2-14 06:52 | 显示全部楼层
fenytk 发表于 2025-2-13 14:39
估计难度跟矿机差不多的东西,把现成的算法固化

可能比矿机都还更简单。。。。
发表于 2025-2-14 08:31 | 显示全部楼层
标题我以为又冒出一个penAI的初创公司
发表于 2025-2-14 09:10 | 显示全部楼层
干死英伟达 这算不算专业矿机?
发表于 2025-2-14 09:46 | 显示全部楼层
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥
发表于 2025-2-14 13:28 | 显示全部楼层
libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

推理芯片而已,不要想太多
发表于 2025-2-14 14:36 | 显示全部楼层
libfire2002 发表于 2025-2-13 20:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

跟黄卡没法比,差太远了
发表于 2025-2-14 18:58 | 显示全部楼层
      CloseAI
发表于 2025-2-14 19:53 | 显示全部楼层

掉个字母就惨了,loseAI
发表于 2025-2-15 06:51 | 显示全部楼层
股沟的TPU整了那么多年,不还是一样在抢黄卡
多卡互联和高带宽目前就是显卡厂弄的最好,老黄还多个生态优势
发表于 2025-2-15 13:52 | 显示全部楼层
核心竞争力是CUDA, openai有没有
发表于 2025-2-15 15:53 | 显示全部楼层
AI 引领世界未来  期待
发表于 2025-2-15 17:54 | 显示全部楼层
赫敏 发表于 2025-2-14 06:52
可能比矿机都还更简单。。。。

按FP8做,相当于一堆8bit单片机集合?
发表于 2025-2-15 21:24 | 显示全部楼层
348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???

传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限

估计又是asic这种
发表于 2025-2-16 14:35 | 显示全部楼层
openai只是看起来40人,其实一堆公司围绕他们做配套。
运行模型并不一定是cuda,还有就是这样的芯片并不如手机芯片那么复杂。
发表于 2025-2-17 14:50 | 显示全部楼层
libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

我们缺的是3nm**机,不是芯片设计。
发表于 2025-2-19 13:21 | 显示全部楼层
LLM模型对于硬件的使用可以分为两方面,一是训练、二是推理。随着Scaling Law逐渐触及瓶颈,意味对于训练用硬件的需求将减缓,另一边,模型使用范围的增加,推理用硬件的需求将成指数级增加。
CUDA生态的最大意义在于能够快速搭建训练平台,实验训练效果,即CUDA生态最强的方面在于训练。考虑到Nvidia显卡居高不下的售价,显然在推理端使用CUDA生态是巨大的浪费,所以我预计各大AI巨头将从推理端开始,逐渐替换Nvidia显卡。
如果Nvidia降价是否可行,这可能要考虑AI的盈利模式,个人认为线上服务很难收回成本,那么进行软硬件捆绑销售就是一种必然会考虑的模式,未来头部的AI模型商会出售专门针对自家模型优化推理速度的硬件。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-23 07:41 , Processed in 0.013002 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表