登录
首页 > 文章列表 > OpenAI携手博通自研芯片,科技巨头围攻英伟达

更新时间:2025-09-09 17:02:58 编辑:丁丁小编
来源:点击查看

简介

最新消息显示,OpenAI 正与美国芯片制造商博通合作,将于明年推出自家的 AI 芯片,摆脱英伟达的限制。

OpenAI的首席执行官山姆·奥特曼曾在多个场合公开吐槽,坦言英伟达GPU的短缺是限制公司研发新模型、提升服务能力的关键瓶颈。

的确,无论是训练下一个版本的GPT模型,还是支撑全球数百万用户的实时问答,背后都需要海量的高性能计算资源。过度依赖单一供应商,不仅意味着要承担断供的风险,还要在采购成本上看人脸色。对于正处在高速扩张期的OpenAI来说,将如此关键的命脉交到别人手中,显然不是长久之计。

造自己的芯片,好处远不止不差钱这么简单。通用芯片如同均码服装,虽然适用性广,但未必最合身。而定制芯片则像是为OpenAI的软件和模型架构量身定制的F1赛车。

通过深度优化,定制芯片可以在性能、功耗和内存利用效率上达到通用芯片难以企及的高度。这意味着,未来运行在自家芯片上的OpenAI模型,可能会跑得更快、更省电,最终为用户带来更流畅、更低成本的服务体验。

目前,全球各大科技巨头主要依靠英伟达供应的GPU,其 A100、H100 在全球市场上供不应求。除了英伟达以外,谷歌、亚马逊、Meta、X AI 等企业也先后布局芯片制造。

谷歌 是这条赛道上的老玩家,其自研的TPU(张量处理单元)已经从最初主要负责推理任务,进化到了v5e版本,甚至可以承担大规模的预训练工作,堪称全能选手。

亚马逊 和 Meta 同样不甘示弱,纷纷投入重金研发自己的定制AI芯片,以驱动其庞大的云服务和社交媒体帝国。X AI 将重心放到了全新的 AI5 和 AI6 芯片,试图解决英伟达的算力限制。

对这些科技巨头而言,自研AI芯片不仅是为了省钱,更是为了在未来的AI竞争中构筑核心技术壁垒。当模型和算法的差距日益缩小时,底层硬件的效率和成本将成为决定胜负的关键手。摆脱对英伟达等外部供应商的依赖,将让它们在产品迭代和商业策略上拥有更大的自由度和想象空间。

OpenAI与博通的这次合作,无疑为这场日趋白热化的AI芯片军备竞赛又添了一把火。可以预见,在不远的将来,拥有一颗强大、高效且自主可控的心脏,将成为顶尖AI玩家的标配。

热门文章