HawkInsight

  • 联系我们
  • App
  • 中文

自主芯片设计:OpenAI与博通、台积电合作应对挑战

OpenAI与博通和台积电合作开发推理芯片,优化供应链,降低对GPU依赖,面对高昂运算成本挑战。

成本与供应链管理的关键

OpenAI曾考虑自建晶圆厂,以降低长期成本并控制供应链,但由于巨额投资和时间风险,最终选择将生产外包。该公司现与博通(AVGO)和台积电(TSMC)合作,专注于推理芯片的设计与开发,以减少对昂贵GPU的依赖。

OpenAI的这一策略反映了大型科技公司如亚马逊(AMZN)、Meta(META)、谷歌(GOOGL)和微软(MSFT)的模式,旨在通过内外部芯片供应的混合使用,减轻成本压力并提升供应链灵活性。

通过多元化的供应链策略,OpenAI降低了单一供应商对其基础设施的限制,从而增强了成本管理和供应稳定性。

芯片市场竞争加剧

当前市场对训练AI模型的需求依然主导,但随着AI应用的不断扩大,推理芯片的需求正在快速增长。为此,OpenAI已组建了一支由20位高级工程师组成的团队,专门负责推理芯片的开发,包括曾在谷歌工作的工程师,带来了谷歌自制TPU的专业经验。

目前,OpenAI已预订台积电2026年的产能,以确保供应能力。尽管生产计划可能会调整,这一订单仍显示出OpenAI在AI芯片开发战略上的初步成效。

目前,英伟达(NVDA)GPU的市场份额约占80%,但随着成本上涨及供应短缺,OpenAI、微软和Meta等大企业开始寻求替代方案,OpenAI的推理芯片开发可能会对英伟达主导的市场构成挑战。

结合超微芯片与微软Azure

除了自主研发芯片,OpenAI还计划通过微软的Azure云服务使用超微(AMD)新型MI300X芯片。该芯片专注于AI推理和训练运算,旨在抢占英伟达的市场份额。超微预计,MI300X芯片在2024年将创造45亿美元的营收,这表明超微与微软的合作可能在不久的将来成为OpenAI等企业的主要硬件选择。

通过在Azure上使用超微芯片,OpenAI能够减少对昂贵GPU的依赖,提高运算成本效益,增强运算基础设施,同时降低对单一供应商的依赖风险。

持续高昂运算成本亟待优化

知情人士透露,OpenAI每年在训练AI模型和维持ChatGPT等应用的运行上耗费巨额资金。预计2023年,OpenAI的营收为37亿美元,但可能面临高达50亿美元的亏损,主要支出集中在硬件、电力和云端服务上。

因此,OpenAI正在持续优化运算架构和供应链,以降低成本,计划将供应商从英伟达扩展至更多合作伙伴。同时,为确保获取英伟达最新一代Blackwell芯片的稳定供应,OpenAI对挖角英伟达员工持谨慎态度,旨在平衡长期合作关系与自主发展需求,突显了其在追求芯片自主性与合作稳定性之间的微妙平衡。

免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。