继上周传出和 iPhone 传奇设计师艾维商讨合作推出新的 AI 设备之后,阿尔特曼和他的 OpenAI 又显示出硬件领域的更多野心——自研芯片。
据媒体援引知情人士报道,OpenAI 正在为 AI 芯片短缺制定应对方案,可能的选项包括自己研发 AI 芯片,并已经评估了潜在的并购对象。
OpenAI 正在用的英伟达芯片既缺又贵,一定程度上导致在年初的现象级大热之后,ChatGPT 很快遭遇了流量过载和算力紧缺。除了官方曾短暂关闭订阅通道和大量封号之外,不少用户在长期使用后表示,ChatGPT 比一开始更慢了,还会面临掉线和崩溃问题。阿尔特曼在一次访谈中承认,用户遇到的大多数问题都是因为 GPU 短缺造成的。
目前英伟达垄断了全球 AI 芯片 80% 以上的市场,台积电说制约其供应的先进封装产能紧缺直到明年底才会缓解。全球绝大多数 AI 初创公司们都依赖英伟达最先进的 GPU H100 和 A100(以及某些市场的特供版本)来训练或推理大模型,它们要么租用集成了英伟达 GPU 的服务器——承受云厂商的额外加价;要么自己买 GPU——稍便宜一些、但很难获得较高的供应优先级。
阿尔特曼说过 ChatGPT 的计算成本高到令人瞠目,而 OpenAI 的首要任务是让 GPT-4 变得更便宜和更快。自研芯片可以帮他达成这些目标。对于这样做的好处,《晚点 LatePost》之前已经详细分析过
据科技媒体 The Next Platform 估计,如果 OpenAI 能够通过自研芯片将每台服务器(含 8 张 GPU)的全部成本控制在 50 万美元以内,就可以节约一半的 IT 费用(相较租用)。省下这些钱既可以让 OpenAI 投入更多到训练参数量更大的下一代模型,或是推理、维持现有模型的运营,也可以降低终端价格、吸引更多用户。
如果用一款自研的专用 AI 芯片替代通用的英伟达 GPU,还可以让 OpenAI 用上完全适配其需求的算力设施。GPU 本质上是为了图形处理和渲染而设计的处理器,其优点是通用性强且工艺成熟,但在量产后的成本和功耗等方面不及定制化程度更高的 ASIC 等专用芯片。
同时 OpenAI 还能借此减少对英伟达或微软的依赖,自己去找台积电等芯片制造商下单,最大程度确保芯片供应不会在自己最需要时掉链子,也就不会在用户最感兴趣的时候因为算力限制而流失客户。
出于类似目的,不光是 OpenAI,目前 AI 领域最重要的公司(同时也是英伟达最大的客户们)都在自研芯片。微软、Google、亚马逊等都已经开始推进相关项目,并成为芯片设计架构提供商 Arm 的基石投资者。OpenAI 投资者之一的微软,被报道计划在下个月的年度开发者大会上推出其首款专为 AI 设计的芯片。
设计一款芯片(尤其是先进制程)的成本很高,但对于这些赚走了行业最多利润的科技公司们来说,借此提高软件 / 产品的体验和吸引力、建立领先地位和竞争优势更加重要。苹果已经给出一个极佳的范例,从 2010 年推出首款自研芯片 A4 和搭载该芯片的 iPhone 4 至今,苹果的收入增长了 5 倍、利润增长了 6 倍、市值翻了约 10 倍