跳转到主内容
博客

模型公司的终局是云公司

模型开源怎么赚钱?算一笔 DeepSeek 的账就明白了:模型公司跟云公司正在变成一枚硬币的两面,而开源是目前最高效的获客手段。

4 分钟阅读
分享:
模型公司的终局是云公司

经常有人问:模型开源怎么赚钱?

其实换个问法就好理解了。软件开源怎么赚钱?托管云服务。Redis 开源,Redis Cloud 赚钱。MongoDB 开源,Atlas 赚钱。模型更是如此,而且比软件开源更适合走这条路。

上一篇聊了开源社区这三年的变化,这篇聊钱——模型开源背后的生意到底怎么算。

一枚硬币的两面

你去看现在全球的格局,云厂商在拼命做模型,模型公司在拼命买算力。

Google 2025 年资本开支超过 900 亿美元,核心就是自研 Gemini 加自研 TPU。微软绑定 OpenAI 砸了 800 亿美元建 AI 数据中心。亚马逊投了超过 1000 亿美元扩 AWS 算力,同时给 Anthropic 投了 40 亿美元。三家 2025 年光资本开支就超过 3000 亿美元,大头都在 AI 上。

再看模型公司这边。OpenAI 2025 年营收超过 200 亿美元,主要来自 API 和订阅——说到底就是在卖推理算力。Anthropic 跟 Google Cloud 签了百万块 TPU 的使用协议,价值数百亿美元,同时在 AWS 上跑着 50 万块以上的 Trainium 芯片。你说这是模型公司还是云公司?

两边正在变成同一种东西。

算一笔 DeepSeek 的账

DeepSeek 把这件事演了一遍。

2025 年 1 月 20 号 R1 发布,春节假期。六天后 App 冲上美国 iOS 下载榜第一,52 个国家同时登顶。一月份下载超过 1400 万次,到四月月活接近一个亿。没有广告投放,没有市场活动,获客成本几乎为零。

API 定价也很猛。R1 的价格是 0.55/百万输入tokenOpenAI同类的o10.55/百万输入 token,OpenAI 同类的 o1 是 15。大概是 OpenAI 的 3.5%,比当时大家说的「OpenAI 五分之一的价格」还要夸张得多。很多人说这是赔本赚吆喝,不可能挣钱。

2 月底 DeepSeek 做了一个「开源周」,五天连放五个底层优化技术:FlashMLA、DeepEP、DeepGEMM、DualPipe、3FS——从注意力解码到矩阵运算到流水线并行到分布式文件系统,全是自己做的基础设施级别的东西。其中 DeepGEMM 核心代码只有 300 行,性能超过专家手调的内核。大家看完才明白,这公司在底层做了多少事。

紧接着 3 月 1 号 DeepSeek 公开了一组数据:按 H800 租赁价 2/小时计算,V3R1模型一天的推理GPU成本约2/小时计算,V3 和 R1 模型一天的推理 GPU 成本约 87,000。如果当天所有流量都按 R1 定价计费,理论日收入约 $562,000。理论上的成本利润比:545%。

这个 545% 当然要打折扣。DeepSeek 自己也说了——网页端和 App 都是免费的,V3 定价比 R1 低,闲时还有折扣,实际变现的流量远小于总流量。这个数字也只算了推理 GPU 的租赁费,不含训练成本、研发投入和人员工资。V3 的实际总研发成本,行业估算在 5 亿到 16 亿美元之间。

但 545% 本身不是重点。重点是:同一个开源模型,别人拿去跑推理服务,在这个定价下大概率是亏的。DeepSeek 因为在底层做了大量优化,同样的价格,自己是挣钱的。定价权在原厂手里。

飞轮转起来

做云最头疼的事情是什么?大家卖的东西差不多——裸金属上面加薄薄一层服务,毛利很快就被挤掉了。AWS 的运营利润率大约 33% 到 38%,已经是天花板。Google Cloud 从长年亏损做到 30% 左右。更小的云厂利润更薄,客户还高度集中,大客户一压价你根本没得谈。你在底层技术上投入再多,也很难变成客户感知到的差异。

加了模型这一层就不一样了。假如我运营一个大规模的推理集群,在模型效率上提升了 10%,同样的硬件就能多产出 10% 的 token。多出来的利润拿去做研发,进一步优化推理效率,进一步压低单位成本,就可以用更低的价格去打市场,拉来更多用户,把算力利用率顶上去,利润又多了。然后接着投研发。

以前的云生意没有这个循环。你花了很多钱做技术改进,客户感知不到。模型不一样,推理效率的优化直接就是钱——要么成本更低,要么同样成本下多出一截产出。

Google 2025 年把资本开支从 750 亿美元追加到 930 亿,大部分砸在 AI 基础设施上。他们看到的就是这个变化:模型层让云生意有了真正的技术杠杆。

开源是最高效的获客

为什么不直接闭源卖?因为模型好不好用这件事,光看跑分看不出来。

Llama 4 就是反面教材。2025 年 4 月 Meta 发了 Llama 4 Maverick,提交给 LMArena 排第二。很快被人发现:提交排行榜的是一个专门调过的「实验版」,回复特别长、带 emoji、排版花哨——都是容易拿高分的套路。公开发布的标准版重新测,排第 32。后来 Yann LeCun 离开 Meta 时亲口承认「results were fudged」。Zuckerberg 对整个 GenAI 团队失去了信心,LLaMA 系列在开源社区基本也就此出局了。

跑分可以做手脚,用户体验做不了。

模型开源出来,所有人都能跑、能试。好不好用几分钟就知道了。这个过程会形成口碑,也会形成粘性。我之前帮朋友装 AI 客户端工具的时候,有人翻出半年前注册的 DeepSeek API 账号来连。其实在那个场景下 DeepSeek 不是最优选择,但他觉得顺手——注册过、用过、已经有信任了。开发者也差不多,之前用某个模型的 API 做过项目,下个项目大概率还是用它。切换有成本,重新建立信任的成本更高。

DeepSeek 的打法是开源模型加免费 App 一起来。开发者跑开源模型去试,普通用户用 App 去试,两头同时建认知。一部分人自然就转成了 API 付费用户。获客成本接近零,覆盖面比砸几亿做市场的还广。

不是所有模型都适合这条路

这套逻辑在语言模型上很通顺。DeepSeek R1 几千亿参数,没有一个 GPU 集群你跑不起来。想用就两条路:免费 App 或者付费 API。不管选哪个,流量都在他们的云上。大模型和小模型之间效果差距明显,用户自然会往云端聚集。

文生图就不太一样了。Stable Diffusion、FLUX 这些开源模型,一张游戏显卡就能跑。门槛低到个人用户都能在家部署。大模型跟小模型的效果差距如果没有那么大,市场就会碎掉——大量用户选择本地跑,云端需求没那么集中。

文生图和文生视频还有另一个推力:涉及图片和视频内容,天然面对更多审核和法规限制。云端服务要做内容过滤,但本地跑这些约束基本不存在。这也在推动一部分用户走向本地。

所以模型开源这套商业逻辑能不能走通,取决于大模型和小模型的能力差距够不够大、本地部署的门槛够不够高。语言模型目前两个条件都满足。文生图差一些。文生视频还在变,说不好。

更好的云

不管怎么样,模型要商业化就绑着云服务。我觉得这其实是好事。

以前的云就是卖资源、拼价格,你在技术上花多少钱都很难拉开差距。模型加进来之后不一样了,技术投入能直接降推理成本、拉开定价空间。做得好的公司是真能赚到钱的。

模型公司的终局大概就是云公司,只不过不是卖裸金属的那种。是一种新型的 AI 云,卖的是智能。

推荐阅读

订阅博客更新

新文章发布时第一时间通知你,不会发送垃圾邮件。

仅用于博客更新通知,随时可以取消订阅。

评论

或匿名评论
0/2000