伴随着互联网企业软件的云支出收紧,增长放缓逐渐成为云厂商头顶的乌云。
ChatGPT 的横空出世打破了这一瓶颈,AI 将重塑软件。云厂商的客户——软件公司正在积极地将大模型带来的 AI 能力嵌入已有的工作流程,完成更高阶的自动化。
在新增云客户逐渐枯竭的情况下,软件公司不再是为了上云而上云,而是力求用 AI 提高生产力。「这是未来十年云计算市场的最大增量。算力基础设施是大模型的绝对红利受益者。」一位从业十多年的云计算行业人士向极客公园阐述道。
在这样的前景下,海外几大云服务巨头——微软、亚马逊、谷歌、甲骨文迅速做出了改变。过去数月,云巨头们砸下真金白银,研发大模型、战略投资、自研 AI 芯片……大模型的时代方兴未艾,他们已经瞄准了新一代的 AI 软件客户。
昔日的江山远非牢不可破,云市场正在快速洗牌,巨头们拉开了全新的竞争大幕。
毕竟,移动互联网时代老大哥的没落近在眼前,诺基亚几年间从鼎盛时 70% 的手机市场占有率到无人问津,只在做错决策的一念之间。而对于大模型,云行业迅速形成共识:这次的 AI 绝非一个小变量,从行业一日千里的发展速度来看,当前领先的玩家也可能被甩在后面。
2023 年已经过去一半,本文将围绕几大海外云巨头进行梳理,什么是今天云厂商们竞争的关键?
01 研发 AI 专用芯片,不能把「命」全交给英伟达
大模型时代来临以后,对云服务商而言,今天最稀缺的资源就是算力,或者说是 AI 芯片。投资最底层的基础设施——AI 加速芯片,也成为今天云厂商竞争的第一个重点。
稀缺、昂贵,被认为是云厂商加快自研芯片的首要原因。连马斯克这样的科技圈权势大佬都评价「这玩意(英伟达 GPU)比药品都难搞」,并暗搓搓为自己的 AI 公司 X.AI 从英伟达买了一万张卡,还收了很多甲骨文的闲散股权。
这样的稀缺程度,体现在云巨头的业务上,直接对应着「卡脖子」带来的业务损失。即便先下手为强的微软,也被曝出由于 GPU 短缺,内部 AI 研发团队实行 GPU 配给制度、各种新计划延迟、新客户上 Azure 要排队数月等传闻。
就连风险投资机构抢项目,都要靠手握英伟达芯片存货。为了 N 卡,各方力量到了「无所不用其极」的地步。
稀缺的另一个名字,叫昂贵。考虑到大模型对算力需求十数倍增加,卡只会更贵。近日,一位投资人向极客公园表示,「年初 8 万一张的 A100 单卡,现在已经炒到了 16 万,还搞不到。」相应地,云巨头们的数万张卡要缴纳的「英伟达税」只会是一个天文数字。
「命」悬在别人手里的滋味好不好受,风头最盛的微软最有发言权。一个月前,The information 独家报道,微软成立 300 人的「天团」加快自研 AI 芯片的步伐,代号为 Cascade 的服务器芯片最早可能在明年推出。
不仅是因为「卡脖子」,云厂商自研芯片,还有另一层所指——GPU 并不一定是最适合跑 AI 的芯片,自研版可能会优化特定的 AI 任务。