OpenAI在首届开发者日上,正式公布自定义GPT。这一次的最重磅更新,当属GPTs。它让过去一段时间里大家想象的GPT帮你做一切,成为现实。无需编程,每个人通过对话聊天的方式,即可构建一个专属技能的GPT。
依托此功能,OpenAI将在本月晚些时候推出GPTs商店,让更多开发者可以依靠制作专属GPT赚钱。
如此重磅的更新,以及强大的功能,背后支撑的可不仅仅是在聚光灯下的“GPU”,而是更为庞大的算力产业。
以GPTs为引,回看我国大模型领域,以及算力产业的发展,不难发现,还有很多有待提升的空间,以及值得布局的商业蓝海。
第一步:算力!算力!算力!
众所周知,大模型的训练、推理等过程对算力要求极高,以GPT-3为例,英伟达曾披露训练一次1750亿参数的GPT-3需要34天,使用1024张A100 GPU芯片,单次训练成本高达1200万美元。
与此同时,在大模型等相关应用的快速发展下,据国际数据公司(IDC)发布的报告显示,全球算力投资额将在未来五年内以每年16.5%的复合增长率增长。中国作为全球最大的算力市场之一,算力投资额占比已超过全球总投资额的1/3。
据华为预测,到2030年人类将进入YB数据时代,通用算力将增长10倍,人工智能算力将增长500倍。
如此庞大的算力需求,最终落地点不仅仅是那一张张GPU芯片,而是更为底层的算力基础设施。二算力背后的底层支撑就是服务器。
当前,中国有超过2000万服务器的庞大存量,每年通用服务器采购量约400万-500万台。华为预测,到2027年,中国数据中心服务器市场总规模接近5000亿元。
截至2023年6月底,全国在用数据中心机架总规模超过760万标准机架,算力总规模达到197EFLOPS,位居全球第二。算力总规模近五年年均增速近30%,存力总规模超过1080EB。
放眼国内IDC行业,当下新建成、在建的数据中心大多数以支持智能算力的智算中心为主,而一些老旧数据中心在改造的过程中,也从配电、机房空间、布线等方面,进行针对性改造,达到足以智算项目落地的能力。
不过,仅仅是智算中心的落地对于算力产业,以及大模型而言还是远远不够的