别看全球科技圈都在大模型上轰轰烈烈搞了这么久——
做出来的热门产品居然还是赔钱的?!
就拿这里面最“得势”的微软来说,据华尔街日报爆料:
他们那用户量高达150万的AI编程工具GitHub Copilot,平均每个月在每个用户身上都要倒贴20美元,最高能达80美元。
换言之,微软自做出Copilot以来,光是一个月在它上面亏损就高达3000万美元,一年下来亏损直接过亿。
要知道,Copilot也不是能白嫖的,会员每月还得交10美元“使用费”呢。
不止微软“表面光鲜”,谷歌、亚马逊、Adobe、Zoom等巨头也面临同样的窘境。
除了给使用次数设限,他们还悄然提高会员价、或是“偷换”小模型……可谓想方设法地“找补”利润。
这究竟是怎么一回事儿?
ChatGPT们为啥“不赚钱”?
原因或许可以从成本和价值创造两个方面来找。
最直观的,应该就要属成本了。
一个是大语言模型运行所需的硬件、维护等各种技术成本。
正如开头提到的,微软GitHub Copilot背后所需的运行总成本,甚至超过了平均每人每月10美元的会员费总价,而且还是两倍。
这还是有会员收费的大模型产品,没有收费的那还得再上一个量级。
据SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT,每日投入的成本就可能高达70万美元。