可生成文本、绘制图画的人工智能(AI)工具已然成为芯片厂商的热议话题。相比英伟达、谷歌、英特尔等传统芯片巨头,市场开始更多关注该领域的AI芯片初创公司。
近日,IDC亚太区研究总监郭俊丽称,以算力每一百天翻一番计算,预计5年之后,整体AI算力将增长超过一百万倍,并推动相应的算力、基础设施和芯片市场增长。
英国AI芯片独角兽Graphcore正是此一轮风口中的主要标的公司。Graphcore提供专为AI计算设计的软件和硬件,其AI芯片被称为“IPU”,很适合那些通过消除不必要的参数来降低计算成本,提高计算速度的计算。
Graphcore总裁兼大中华区总经理卢涛告诉界面新闻,对于AI芯片公司而言,大模型的意义在于两点:一方面算力需求更大,无论是做计算机视觉还是自然语言理解,不同垂直领域的AI大模型之间技术会有相似性;另一方面计算范式正在发生迁移,从以CPU为核心变成AI计算为核心的时代,原有的芯片产业主导者将从舞台中央退至边缘。因此,所有半导体公司需要跟上AI的发展求新求变。
针对AIGC应用,Graphcore已提出相应解决方案,称其IPU加速计算卡C600可保证较低的延迟和能耗,同时具有能够快速迁移模型和软件栈易用性特点,有利于提供更高效的服务、降低模型部署和运行成本。例如在GPT2-XL模型上,C600推理延时已经达到1ms/token的水平,功耗仅为30瓦。也因此,降成本是其面向AI应用的主要卖点。
Graphcore C600
Graphcore向界面新闻展示的技术Demo显示,相比传统ChatGPT聊天机器人一字一字“蹦”出文字回答,基于Graphcore IPU的ChatGLM-6B聊天回复更快,实现了几百个字一秒内显示的“刷屏”式回复。
在如火如荼的AI计算市场上,英伟达凭借GPU(图形处理器)最先把握住了机会,成为AI企业不可或缺的芯片供应商,A100和H100系列GPU成为市场优先选择的AI芯片产品。