最高日赚346万元!DeepSeek商业模式受质疑,官方回应
【TechWeb】3 月 1 日,DeepSeek 在开源周最后一天抛出压轴成果—— V3/R1 推理系统理论日利润高达 47.5 万美元(约合 346 万元人民币)。这一惊人数字引发人们对于 AI 模型服务商业化的讨论。
最高日赚 346 万元
昨日,DeepSeek 官方发布《DeepSeek-V3/R1 推理系统概览》技术文章,首次公布模型推理系统优化细节,并披露成本利润率关键信息。
DeepSeek 统计了 2 月 27 日 24 点到 2 月 28 日 24 点,最近的 24 小时里 DeepSeek V3 和 R1 推理服务占用节点总和,峰值占用为 278 个节点,平均占用 226.75 个节点(每个节点为 8 个 H800 GPU)。假定 GPU 租赁成本为 2 美元 / 小时,DeepSeek 每日总成本为 8.7 万美元(折合人民币约 63 万元)。
如果所有 tokens 全部按照 DeepSeek R1 的定价计算,理论上一天的总收入为 56.2 万美元(折合人民币约 409 万元),成本利润率高达 545%。这意味着,理论上,DeepSeek 每日净赚 47.5 万美元,约合人民币 346 万元。
商业模式受质疑,潞晨科技暂停 DeepSeek API 服务
就在 DeepSeek 披露大规模部署成本和收益之后,潞晨科技突然宣布:暂停 DeepSeek API 服务。
潞晨科技官方公众号发文称," 潞晨云将在一周后停止提供 DeepSeek API 服务,请尽快用完您的余额。如果没用完,我们全额退款。"
公开资料显示,潞晨科技是一家致力于 " 解放 AI 生产力 " 的全球性企业,核心产品包括大模型训练推理系统 Colossal-AI 和视频大模型 Open-Sora,此前业务也涉及卖 DeepSeek API。
2 月 4 日,潞晨科技宣布携手华为昇腾,联合发布基于昇腾算力的 DeepSeek-R1 系列推理 API,及云镜像服务。
但在 2 月 9 日,潞晨科技 CEO 尤洋发文指出,"MaaS ( Model as a Service ) 在中国短时间内可能是最差的商业模式。阿里云 / 百度云 / 腾讯云等相互内卷低价和免费,满血版的 DeepSeek R1 每百万 token 官方也只能收到 16 元……如果满血版的 DeepSeek R1 每日输出 1000 亿 token,那么每月的机器成本是 4.5 亿,亏损 4 亿!用户越多,亏损越多。"
在 DeepSeek 首次公开披露自己的成本利润率等关键信息之后,尤洋发文提到,DeepSeek 这篇文章中的数据对计算 MaaS 成本没有任何参考价值。文章中把 DeepSeek 网页、APP 和 MaaS API 的 token 数加在一起计算,意味着对成本的摊薄。
尤洋表示,DeepSeek 的 MaaS 要想有一个这么高满负荷的状态,必须要让自己的 APP 和网页始终超负荷运转。MaaS 是 ToB 的,是服务 APP,最大的问题是机器利用率的不确定性以及自己没有模型壁垒而承受的低毛利负毛利价格战。
据第一财经报道,尤洋认为,OpenAI 收高额月费才是唯一可持续的商业模式。目前,DeepSeek 采用开源免费 + 分层 B 端收费模式,通过开放核心技术吸引开发者共建生态,核心盈利来源于企业定制化服务以及母公司的资金支持,而 OpenAI 基本坚持闭源 + 订阅制分层收费,通过 ChatGPT Plus 等订阅服务(200 美元 / 月)和 API 调用收费实现盈利,开源了一些早期模型比如 GPT2。
日前,OpenAI 发布 GPT-4.5 大模型,API 价格为每百万 Tokens 75 美元,相比 DeepSeek 的正常价格,GPT-4.5 输入价格达到 280 倍。如果以 DeepSeek 前几天发布的 API 淡季折扣价计算,GPT-4.5 输入价格(缓存命中)是其 1000 多倍。
DeepSeek 回应
对于盈利问题,DeepSeek 其实多次说过自家的 API 不赔本。
去年 5 月,时任 DeepSeek 员工的罗福莉在知乎透露," 大家不用担心模型断更,也不用担心 API 涨价(目前就是大规模服务的价格,不亏本,利润率超 50%)。
DeepSeek CEO 梁文锋也曾在接受媒体采访时表示," 我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。"
在最新的《DeepSeek-V3/R1 推理系统概览》文章中,DeepSeek 披露理论上一天的总收入为 56.2 万美元,成本利润率高达 545%。" 当然实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。"
而 DeepSeek 能做到这一利润率,部分原因是团队将优化做到极致,实现了对 GPU 的最大限度使用。DeepSeek 在文章一开头就写道:"DeepSeek-V3 / R1 推理系统的优化目标是:更大的吞吐,更低的延迟。"
为此 DeepSeek 的方案是使用大规模跨节点专家并行(Expert Parallelism /EP),EP 提高了 GPU 矩阵乘法的效率,提高吞吐。此外,EP 使得专家分散在不同的 GPU 上,每个 GPU 只需要计算很少的专家(因此更少的访存需求),从而降低延迟。
硅基流动创始人袁进辉对此评论称,"DeepSeek 官方披露大规模部署成本和收益,又一次颠覆了很多人认知。现在很多供应商做不到这个水平,主要是 V3/R1 架构和其它主流模型差别太大了,由大量小 Expert(专家)组成,导致瞄准其它主流模型结构开发的系统都不再有效,必须按照 DeepSeek 报告描述的方法才能达到最好的效率,而开发这样的系统难度很高,需要时间,幸好这周 DeepSeek 五连发已经把主要模块开源出来了,降低了社区复现的难度。"
最新消息显示,今日早间,尤洋删除了其质疑 DeepSeek 的相关内容,并在微博和知乎上发文道歉,称 " 本人昨天情绪太冲动,说了一些让人误解 deepseek infrastructure 团队的话。deepseek infrastructure 团队技术一流并给开源社区做出巨大贡献。本人诚挚道歉,已经删除不当表述,感谢大家提醒!"