声明:本文来自微信公众号“白鲸出海”(ID:baijingapp),作者:殷观晓、李爽,编辑:辛童,授权靠谱客转载发布。

The Information 报道,据此前未公开的内部财务数据和相关人士的分析,OpenAI 预计今年亏损50亿美金,其亟需在12个月之内筹集更多现金,才能活下去。如果简单分析一下 OpenAI 的收入成本结构,你大概更能深刻理解,Sam Altman 为何将 OpenAI 描述为“硅谷历史上资本最为密集的初创公司”。

以目前现金流,只够活到2025年年底?

参考过去一年的运营数据再结合如今的情况看,OpenAI 今年大概会出现50亿美元的资金缺口。我们知道一个公司能否运转下去,最根本的还是要看现金流。如果假设 OpenAI 一年就是50亿美金的缺口,且不再加大投入,微软在2023年1月给到100亿美金的投资,也就够撑到2025年年底(2023年的资金缺口应该没有50亿美元那么大)。

图片

回收打不正的原因之一就在于大模型公司高昂的运营成本。OpenAI 的成本主要来自推理成本、训练成本和人工成本三大块,据推算一年大概要烧掉85亿美元,这比南苏丹全国一年的 GDP 还要多。

先说推理成本,这指的是 OpenAI 租用微软服务器为 ChatGPT 及底层 LLM 提供动力方面的支出,一位直接了解支出情况的人士表示,截至3月,OpenAI 一年的推理成本将接近40亿美元,而且这还是微软因为两者的关系给出了很大的折扣。

训练成本(包括支付数据费用)预计为30亿美元,是仅次于推理成本的支出大头。去年,OpenAI 进一步推进了对新一代人工智能的训练,因此花费也超出预期,OpenAI 早先计划在训练成本上花费约8亿美元,但结果就是没控制住。The Information 估计,随着该公司推出了新版本的旗舰 LLM,并开始训练新的旗舰模型,今年训练成本还将翻一番。

第三是人力成本,OpenAI 雇佣了约1500名员工,而且员工人数还在迅速增加,这可能会花费约15亿美元。据直接了解支出情况的人士称,OpenAI 预计2023年的员工成本为5亿 美元,而到2023年底,员工人数翻一番,达到800人左右。如今 OpenAI 的员工人数又增加了近一倍,如果其网站上列出的近200个空缺职位能说明一些问题的话,那么在2024年下半年 ,OpenAI 可能还会增加更多的员工。

以上三项加在一起,OpenAI 今年的运营成本可能高达85亿美元,这让此前研究机构给出的34亿美元的 ARR 预估显得“杯水车薪”。

此前 Future Research 的一份报告指出 Open AI 的 ARR 大概在34亿美元左右,The Information 则给出了宽泛的预估数字,它根据 OpenAI 当前2.83亿美元的月收入,结合今年下半年未卜的销售情况,预计 OpenAI 的年收入在40-50亿美元之间,这个缺口比非洲国家布隆迪全国一整年的 GDP 还多。

降不下去的成本、不好增长的营收,

不容易拿到的融资?

抛开融资去看 OpenAI 自己独立存活下去的可能,其实我们会更倾向于认为,在未来的几年里,很难、非常难。

成本比较简单,目前看起来相对有机会的方向是降低推理成本,而对于训练成本,在目前大模型厂商积极抢位、各显神通的阶段,厂商们可能还是倾向于在训练 AI 上加大投入,因而训练和人才成本可能只增不减。

推理成本上,鉴于微软和 OpenAI 的合作关系,OpenAI 其实一直以接近成本价的价格租用微软的服务器,这块儿基本降无可降。一位了解相关事项的业内人士表示,该微软租给 OpenAI 的集群一共配备了35万个英伟达 A100芯片,ChatGPT 占用了其中约29万个芯片(占集群的80% 以上),定价约为每个 A100每小时1.3美元。但在技术架构上未来还有降低推理成本的可能,如果采用模型压缩、量化、并行化等技术,以及合理选择模型规模等等手段,还是有机会实现性能和成本的平衡。

占40亿美元的推理成本是最大头,如果能降下来,还是很可观的。毕竟如果事情往对 OpenAI 更有利的方向发展,未来会有更多人使用它,当然可能不付费,但会产生推理成本,下面我们也会提到。

另外,除了和微软的合作,OpenAI 目前也在积极推进和其他大型企业和机构的合作,可能也会有机会分担一定的成本。

收入方面,OpenAI 的 GPT 系列模型无疑是史上最强,但就赚钱能力来说,现在的局面可以说是十分复杂。

图片

OpenAI34亿美元 ARR 拆分

| 数据来源:Future Research

图片

toC 订阅收入

OpenAI 最大的收入,超过55% 来自于 ChatGPT Plus 用户,全球大约有770万个人用户支付了20万美元的订阅费用。但是如果按照 AI 能力提升、AI 产品普及去判断 ChatGPT 的用户会逐步增加可能是对的,但 ChatGPT Plus 的个人用户会继续增长,可能就有点过于草率了。

首先,全球能够支付得起20美元/月来使用 AI bot 的总人数,可能就不多。经济条件够、有强烈的工作或者学习需求,是2个硬性条件。

在这之外,AI 能力的演进,反而在推动原本花钱的人变成免费用户。

一是自己卷自己。例如本来订阅过 GPT-4的我,支持图片上传、各种小功能的 GPT-4o 免费之后,自然就取消了订阅。而我们编辑部之前有大概1/3的人都花钱订阅了 ChatGPT,而现在都在考虑取消订阅。

一个是别人卷自己。Claude Sonnet 出来之后,很多人都转过去了,这种现象并不少见。

这其实是这几个头部的大模型在卷,能力在拉近,AI 用户本身就爱尝新,粘性并不存在。

另一个在 toC 个人用户上的问题在于,当不付费的用户越来越多,不产生收入也就算了,产生的推理成本切切实实存在的,据 The Information 报道,免费用户的数量在数百万左右。另外一个“坏消息”是,ChatGPT 要被集成到 iPhone 中去,更恐怖的是,苹果并不会付钱,就是这么强势。所以,上面会提及推理成本的下降对 OpenAI 来说,非常关键。

而随着苹果和 ChatGPT 的高强度联通,可能会出现新的生态系统而诞生新的商业机会,但前提是 OpenAI 能够活着等到那天。

另外,随着大模型技术的成熟,距离应用层的爆发也更近一步,而 OpenAI 企业目前暂未推出除了 ChatGPT 以外的独立 C 端应用产品,就 OpenAI 本身的技术能力和产品知名度来看,可能不需要花费很多额外的成本,不知道这里未来是否有可能成为一块收入组成。

ToB 收入

toB 方面,企业版和团队版加起来算是第二大收入,OpenAI 在今年与 PwC 合作来分销,但企业服务这块的竞争激烈程度只能说比 toC 有增无减。

而 toB 的另一块,API,其实我们当时看到数据,第一反应就是,API 的收入竟然有点低?但仔细一想确实能找到合理性,首先大模型的价格战真的是异常热闹,API 的价格一降再降。搜一搜新闻,差不多都是某大模型 API 降级95+% 以上,这里面的某大模型基本可以替换成任何有头有脸的大模型的名字。

而大模型们的钱,很大一部分都被云服务商赚走了。集成了各家大模型的云厂商的财务数据一个比一个好看。例如没什么存在感的 Google Cloud,昨天发布2024年 Q2财报,Google Cloud 首次实现季度收入超过100亿美元,营业利润超过10亿美元。

而大模型本身,却是一边承担着极高的研发压力,另一方面却是只能分到三瓜俩枣。

这样来看,几种现有的收入模式,增长较为困难,更多可能还是要开源,The Information 提及了 OpenAI 可能计划推出真正赚钱的搜索、以及可能 toB 企业迅速买单的 PC Agent。

只能说,对于 OpenAI 来说,好消息,是他们的收入增长比成本增长快,而他的对手,更差劲一些。现在势头比较猛的 Anthropic,收入大概是 OpenAI 的1/10-1/5,但亏损却有 OpenAI 的一半。相对“健康”的财务管理和与对手拉开差距占领更多市场份额,成为了大模型的唯一解。

坏消息是,在闭源模型抢占市场这条路线之外,还有 Meta 这样的开源选手,昨天推出的 Llama3.1405B 在各场景下已经开始对标闭源模型 GPT-4o 和 Claude3.5Sonnet 了。当开源模型的能力开始赶上闭源模型,AI 行业的市场格局可能会发生改变,而在这之上建立的商业模式,可能就不再成立。

另外,在上一轮融资中已经有不少老股东被未选择跟投,当然这其中既有资本本身的投资能力和偏好等主观因素,也有 OpenAI 始终不稳定的组织架构、市场前景暂不明确等客观原因。

不过无论如何,OpenAI 仍然是那个最有希望活下去的大模型创企,因为在当下语境,有多少人希望 ChatGPT 的大厦崩塌,就有多少人希望 ChatGPT 的传奇继续。

商业世界中,产品和钱很多时候都是数字,由一个个数字吸引另一些些数字。

(举报)

点赞(50)

评论列表共有 0 条评论

立即
投稿
返回
顶部