当前位置: 纯净系统之家 >  微软资讯 >  微软难以摆脱英伟达 | 焦点分析:微软与英伟达的关系解析

微软难以摆脱英伟达 | 焦点分析:微软与英伟达的关系解析

更新时间:2023-11-20 12:43:00作者:ycwjzy
作者|杨逍

编辑|苏建勋

微软推出自研芯片,人工智能市场拉开新序幕。

11月16日,微软在其科技大会上发布了两款自研芯片——用于云端训练和推理的AI芯片Azure Maia 100,和CPU(中央处理器)Azure Cobalt 100,分别在AI芯片和CPU芯片上正面对刚英伟达和英特尔。

2023年3月ChatGPT火热后,英伟达的AI芯片A100、H100便一卡难求,英伟达占据了人工智能芯片市场至少90%的份额。

AI芯片是AI时代石油一般的存在。大模型公司想更快推出模型和AI应用,就必须大量购入英伟达的芯片。而英伟达的产能有限,按照上一年计划制定的供给,远不能满足蓬勃的市场需求,抢不到芯片的云厂商、互联网巨头不得不高价抢购。

大模型公司尚未赚到钱,但英伟达先赚得盆满钵满,哪怕是大模型头部企业OpenAI,每年也不得不花费巨额资金在AI算力上。

自研成为企业共同的希冀,在微软之前,谷歌和亚马逊都已用上了自研的芯片,而后来者Meta、OpenAI等也走在自研芯片降低成本的路上。

但从英伟达推出DGX Cloud云服务和基础模型工具等看来,这家芯片巨头正试图构建一个更庞大的商业版图——即使科技巨头们都试图在硬件层面降低了对英伟达的依赖,但在软件层面,他们又不得不与英伟达保持合作。

云巨头集体向“自研芯片”看齐

2008年,淘宝的数据急速增长,存储数据需要花费的成本越来越稿,这也是后来阿里决定进军云计算产业的重要原因。

如今,同样的困境摆在微软、谷歌等一众云巨头公司面前,只是瓶颈从数据中心变成了建数据中心的芯片。这种对高性能AI芯片的渴望和需求,随着大模型及生成式AI的发展将越来越强。

微软从2019年便开始自研AI芯片,在此次技术大会上,两款自研人工智能芯片Maia 100和云计算处理器Cobalt 100也终于出炉。

微软难以摆脱英伟达

微软两款新芯片

Cobalt 100有128个核心,是CPU芯片,目前已在微软的部分业务中得到了应用,并将于明年上市。Maia 100则是AI 芯片,它采用了5nm制程,主要用来运行大语言模型,帮助AI系统更快地处理大量数据。

虽然AI为微软带来了巨大的未来业务预期,但由于AI仍处于发展起步阶段。有媒体曾报道,在2023年年初,微软Copilot平均每位用户每月带来的亏损超过20美元,有的用户甚至造成了最高达到80美元的亏损。

除了是英伟达数据中心市场的大客户,微软还是目前最火热的人工智能独角兽OpenAI的最大股东。为了帮助OpenAI训练ChatGPT,微软曾花费数亿美元向英伟达购入芯片。

不止微软,包括谷歌和亚马逊在内的云巨头们都希望降低芯片送水人英伟达单一供应商的牵制。

谷歌在2016年便推出第一代自研AI芯片TPU,2021年5月又推出了第四代TPU v4,他们目前已将4000个TPU v4串联在一起,构建了一台超级计算机,并在自己的云服务中部署了数百台TPU v4超级计算机。

亚马逊也推出了四个系列的自研芯片——网络芯片Nitro系列,服务器芯片Graviton系列,AI推理芯片Inferentia系列、AI训练芯片Trainium,后两款芯片对应的是GPU市场。

定制化的AI芯片,可以让企业更好地将芯片硬件的性能和效率发挥出来,也可以基于硬件更好地去设计软件,提高芯片性能的实际利用率。

比起AMD、英特尔,微软、谷歌等公司自研芯片的难度会小很多,他们无需生产通用芯片,更容易绕开英伟达在Cuda上的垄断。一位行业资深人士告诉36氪:“Cuda上写好了非常多的软件,但一家公司可能只需要用到其中的不到10%甚至5%的软件,当企业有足够的人、能算得过来帐,完全可以将软件重写一遍。”

不过,微软推出自己的芯片,并不意味着要抛弃英伟达或AMD。微软可以在某些领域采用自研芯片,来降低总体成本,增加与英伟达的议价权。

未来,微软仍会继续采购英伟达的芯片,只不过,2024年会开始采用AMD MI300芯片,培养第二供应商,以降低对英伟达的依赖。

绕不开的英伟达

科技巨头们试图降低对英伟达的依赖,对此英伟达CEO黄仁勋心知肚明。

在内部他经常强调,“公司距离倒闭只有30天”。强烈的危机意识让他对商业竞争保持着极强的敏锐度。

就在亚马逊、谷歌、微软等一众公司想要在硬件层面上减少与英伟达的羁绊时,英伟达开始向更上层的软件和算力进军。

在今年3月21日的GTC大会上,英伟达发布了DGX Cloud,这是一款能提供英伟达最先进算力的云服务产品,它背后隐藏着黄仁勋巨大的野心——将硬件卖给云合作伙伴,再租用算力来运行DGX Cloud,从而提供完整的云服务。不知不觉间,英伟达将自己和云厂商们放到了同一牌桌。

不过,黄仁勋也表示,这是一场双赢的举措,他曾公开表示恰当的云服务组合比例应该是10%英伟达DGX加上90%的公有云。

云巨头想摆脱英伟达,英伟达便扶持起新的合作伙伴。今年,英伟达已投资了CoreWeave、Lambda Labs两家美国的中小云服务商。

2022年11月,CoreWeave就和谷歌云、微软云一样,是首批能提供采用英伟达H100超级计算机云的供应商。与大型通用公共云相比,CoreWeave的定价可以帮用户节省80%的费用。在商业世界,同样都是英伟达的芯片,客户为什么不选择更便宜的算力?

除了参与云算力的竞争,英伟达还将触角伸到了AI软件上,站在基座大模型公司的站位上,笼络更多的AI公司,让他们基于英伟达的工具和模型研发模型。

英伟达推出了用于创建和自定义生成AI模型的AI Workbench,为用户提供了一些AI 基础模型,还提供了英伟达 NeMo 框架和工具,只有一个目的——让不具备大模型研究能力的公司,直接用英伟达提供的大模型,生成自己的大模型产品。

可以明显看到,英伟达在投资、收购上的动作激进了很多。2023年以来,英伟达便投资收购了10多家人工智能相关企业。如2月收购AI优化平台公司OmniML,3月收购人工智能模型开发领域的Adept,6-7月则先后投资了语言模型开发企业Cohere、Inflection AI与来自德国的Aleph Alpha等。

这家芯片巨头正加强自己与大模型公司和AI应用公司的联系。从一家只卖硬件的公司,变成为AI 产业提供“一条龙服务”的计算平台公司。

正如,在这场微软推出自研AI芯片的高光时刻大会上,英伟达老黄仍然到场,从硬件合作伙伴化身软件合作伙伴,宣布将基于微软云提供自定义生成式服务AI foundry。

在这个AI时代里,没有人能摆脱英伟达。

相关教程