购置芯片,买的越多,省得越多?只需一台电脑,在家就能微调大模型?从前费时费力又烧钱的元宇宙,如今用生成式AI已经可以快速生成数字孪生模型,迅速构建虚拟世界?
8月8日,皮衣教主黄仁勋带着英伟达的一系列更新,在SIGGRAPH 现场发表NVIDIA主题演讲。SIGGRAPH是计算机图形学的年度顶级会议,也是计算机图形学和交互技术领域的一个重要组织。
而英伟达自1993年创立以来,在计算机图形学领域扎根,推动着图形处理器(GPU)技术的发展,包括实时光线追踪技术的突破、多核与众核处理器创新以及在人工智能和深度学习领域加速算法的训练和推理。这也是时隔五年后,皮衣教主黄仁勋再一次登上SIGGRAPH的演讲台。
而英伟达自1993年创立以来,在计算机图形学领域扎根,推动着图形处理器(GPU)技术的发展,包括实时光线追踪技术的突破、多核与众核处理器创新以及在人工智能和深度学习领域加速算法的训练和推理。这也是时隔五年后,皮衣教主黄仁勋再一次登上SIGGRAPH的演讲台。
那么此次演讲,皮衣教主给各路看客带来了哪些惊喜?划重点了!
一、GH200+Grace Hopper:降低大语言模型推理成本
今年五月,英伟达发布了GH200系统,专为处理大规模的生成式人工智能(Generative AI)工作负载而设计。GH200将256个NVIDIA Grace Hopper™ Superchip完全连接成一个单一的GPU,可以支持处理大规模的推荐系统、生成式人工智能和图分析等领域的模型。
此次演讲,黄仁勋又详细介绍了自己“如数家珍”的GH200,在他看来,未来的前沿模型将会在大规模系统上进行训练和应用。每个节点上都会有一个单一的Grace Hopper,这种架构在过去60年来一直是计算的方式,现在在加速计算和AI计算方面将成为主流,未来将使得前沿模型能够更好地进行训练和应用。
也就是说,此类系统可以进行普适性应用,未来的前沿模型将成为各种应用的前端。每个应用程序、每个数据库,在与计算机交互时,都可能首先与一个大型语言模型进行交互。这些模型将理解用户的意图、愿望和特定情境,并以最佳方式呈现信息。这种模型将进行智能查询和搜索,甚至可能用于音乐生成等领域。“在计算的未来,加速计算和AI计算将成为主流。”黄仁勋信心满满的展望道。
在能源效率和成本效益方面,黄仁勋反复强调:“买的越多,省得越多”。这可不是“信口开河”,加速计算在生成式AI应用程序的能源效率和成本效益方面相当于20倍的Moore定律和目前的CPU扩展方式。Moore定律是由英特尔创始人之一戈登·摩尔提出的观点。其核心内容是,集成电路上可以容纳的晶体管数量,大约每隔18个月到24个月就会增加一倍。换句话说,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。那么,20倍的Moore定律是什么概念?