LLMs之DeepSeek:AI模型市场深度分析:DeepSeek的挑战与机遇,模型市场份额、Token经济学与未来发展
LLMs之DeepSeek:AI模型市场深度分析:DeepSeek的挑战与机遇,模型市场份额、Token经济学与未来发展
导读:该文章主要分析了中国大语言模型DeepSeek R1发布150天后的市场表现、Token经济学的影响以及AI模型市场的竞争格局。文章指出,DeepSeek R1虽然在发布初期引起轰动,但其自身托管服务的用户增长乏力,而第三方托管的DeepSeek模型使用量却大幅增长。文章深入探讨了Token经济学中的关键KPI(延迟、交互性、上下文窗口)如何影响模型定价和用户体验,并分析了DeepSeek在这些方面的权衡。此外,文章还将Anthropic与DeepSeek进行了对比,指出两者都面临计算资源约束的问题。最后,文章探讨了Inference云的兴起以及AI模型市场未来的发展趋势。
目录
AI模型市场深度分析:DeepSeek的挑战与机遇,模型市场份额、Token经济学与未来发展
1. A Boom and… Bust?(繁荣与…萧条?)
2. Tokenomics Basics(Token经济学基础)
3. DeepSeek Trade-Offs(DeepSeek的权衡)
4. Anthropic is More Like DeepSeek than They’d like to Admit(Anthropic比他们愿意承认的更像DeepSeek)
5. Speed Can be Compensated for(速度可以被弥补)
6. Rise of the Inference Clouds(推理云的兴起)
AI模型市场深度分析:DeepSeek的挑战与机遇,模型市场份额、Token经济学与未来发展
这篇文章深入分析了DeepSeek R1发布后的市场表现,并从Token经济学的角度探讨了AI模型市场的竞争格局。文章指出,DeepSeek的低价策略是以牺牲用户体验为代价的,而Anthropic则通过提高模型效率来弥补计算资源上的不足。文章还探讨了Inference云的兴起以及AI模型市场未来的发展趋势。总的来说,这篇文章对AI模型市场的发展现状和未来趋势进行了全面的分析,为模型提供商和用户提供了有价值的参考。
地址 | DeepSeek Debrief: >128 Days Later – SemiAnalysis |
时间 | 2025年7月3日 |
作者 | semianalysis |
1. A Boom and… Bust?(繁荣与…萧条?)
DeepSeek R1发布后,用户流量最初出现激增,但随后增长停滞,市场份额下降。虽然DeepSeek自身平台表现不佳,但第三方平台对DeepSeek模型的使用量却显著增长
- DeepSeek R1发布初期市场反应强烈,但未能维持增长势头。
- DeepSeek自身托管服务的用户增长乏力。
- 第三方托管的DeepSeek模型使用量大幅增长,表明模型本身受欢迎,但DeepSeek的服务可能存在问题。
- 思考:
- 模型发布后的持续增长需要有效的用户获取和留存策略。
- 第三方合作是扩大模型影响力的重要途径。
- 模型提供商需要关注自身平台的用户体验,以避免用户流失。
Source: SemiAnalysis, Company prices
Source: SemiAnalysis, SimilarWeb
Source: SemiAnalysis, OpenRouter
Source: SemiAnalysis, OpenRouter
2. Tokenomics Basics(Token经济学基础)
介绍了Token经济学的基本概念,包括Token的定义、AI工厂的运作模式以及模型提供商可以调整的关键KPI。
- Token是AI模型处理和生成内容的基本单位。
- AI工厂通过Token的输入和输出来盈利。
- 模型提供商可以通过调整延迟、交互性和上下文窗口等KPI来优化Token定价。
- 单纯讨论Token价格而不考虑KPI是不全面的。
- 思考:
- 理解Token经济学是优化AI模型服务和定价的关键。
- 模型提供商需要根据自身硬件和模型特点,权衡不同KPI之间的关系。
- 用户需要根据自身需求选择合适的模型和服务。
3. DeepSeek Trade-Offs(DeepSeek的权衡)
分析了DeepSeek在Token经济学方面的权衡,指出其低价策略是以牺牲延迟和上下文窗口为代价的。
- DeepSeek通过牺牲延迟来降低Token价格,导致用户体验不佳。
- DeepSeek的上下文窗口较小,限制了其在某些领域的应用。
- DeepSeek通过高批量处理来降低成本,但进一步降低了用户体验。
- DeepSeek专注于AGI研究,不重视终端用户体验。
- 思考:
- 模型提供商需要在价格、延迟、交互性和上下文窗口之间进行权衡。
- 不同的用户群体对不同KPI的敏感度不同。
- 专注于特定目标(如AGI研究)可能会导致在其他方面的妥协。
4. Anthropic is More Like DeepSeek than They’d like to Admit(Anthropic比他们愿意承认的更像DeepSeek)
将Anthropic与DeepSeek进行对比,指出两者都面临计算资源约束的问题,并分析了Anthropic在代码领域的成功和挑战。
- Anthropic和DeepSeek都面临计算资源约束。
- Anthropic在代码领域取得了成功,但同时也面临计算压力。
- Anthropic通过与Amazon和Google合作来获取更多计算资源。
- 思考:
- 计算资源是AI模型发展的关键瓶颈。
- 专注于特定领域可以提高模型竞争力。
- 与大型科技公司合作是获取计算资源的重要途径。
5. Speed Can be Compensated for(速度可以被弥补)
探讨了速度在AI模型中的重要性,并指出Anthropic通过提高模型效率来弥补速度上的不足。
- 速度是影响用户体验的重要因素。
- Anthropic通过提高模型效率来减少Token使用量,从而降低端到端响应时间。
- 模型效率是提高竞争力的重要途径。
- 思考:
- 模型提供商可以通过优化模型结构和算法来提高效率。
- 用户需要关注模型的端到端响应时间,而不仅仅是Token生成速度。
6. Rise of the Inference Clouds(推理云的兴起)
- 介绍了Inference云的兴起,以及越来越多的公司开始销售Token作为服务。
- Inference云正在兴起,越来越多的公司开始提供AI模型推理服务。
- 越来越多的公司开始销售Token作为服务,而不是捆绑订阅。
- 思考:
- Inference云为AI模型提供商提供了新的商业模式。
- 销售Token作为服务可以更好地满足用户多样化的需求。