大模型小模型选型手册:开源闭源、国内国外全方位对比
市面上有哪些模型,国内与国外,开源和闭源,热门的 友好的,哪些是小模型 适合个人本地学习练习用的,按照这些维度或者更多的维度 汇总发我。我需要对 大模型和小模型 有一个总体的了解
基于最新的搜索结果,我为你整理一个全面的大模型和小模型汇总,按照你提到的各个维度来分类:
🌍 国内外模型分布
国外主流模型
闭源商业模型:
- OpenAI系列:GPT-4o, GPT-4.5-Preview, o1-preview, o1-mini
- Anthropic系列:Claude 3.5 Sonnet, Claude 3.7 Sonnet
- Google系列:Gemini 2.0 Pro, Gemini 1.5 Pro, Gemini 2.5 Pro
- Meta系列:部分闭源版本
开源模型:
- Meta Llama系列:Llama 3, 3.1, 3.2, 3.3 (8B-405B)
- Mistral AI系列:Mistral 7B, Mixtral 8x7B/8x22B, Mistral Large
- Google开源:Gemma 2B/7B, Phi-3, Phi-4
- 微软:Phi系列 (2.7B-4B)
国内主流模型
主要厂商分布:
- 阿里巴巴:Qwen系列 (0.5B-72B), QwQ-32B
- 深度求索:DeepSeek系列 (1B-671B), DeepSeek-R1
- 字节跳动:Doubao-1.5-pro
- 腾讯:Hunyuan-turbos
- 智谱AI:GLM系列, GLM-Zero
- 百度:ERNIE-4.0系列
- 月之暗面:Kimi系列
- 零一万物:Yi系列
- 360:360智脑系列
🔓 开源 vs 闭源对比
顶级开源模型 (2024-2025)
模型名称 | 参数量 | 特点 | 适用场景 |
---|---|---|---|
DeepSeek-R1 | 671B | 推理能力强,成本效益高 | 复杂推理、编程 |
Qwen2.5-72B | 72B | 超越Llama3.1-405B性能 | 通用任务、中文处理 |
Llama 3.1-405B | 405B | 最大开源模型 | 企业级应用 |
Mixtral 8x22B | 141B (39B激活) | MoE架构,效率高 | 多语言、编程 |
顶级闭源模型
模型名称 | 开发商 | Elo评分 | 特点 |
---|---|---|---|
o3-mini | OpenAI | 76.01 | 最新推理模型 |
DeepSeek-R1 | 深度求索 | 70.33 | 开源推理之王 |
Claude 3.7 Sonnet | Anthropic | 68.02 | 对话体验佳 |
GPT-4.5-Preview | OpenAI | 67.46 | 综合能力强 |
📱 小模型推荐 (适合个人本地学习)
超轻量模型 (1B-3B)
最适合CPU运行:
- Qwen2.5-0.5B/1.5B/3B - 阿里巴巴,中文友好
- Llama 3.2-1B/3B - Meta,移动端优化
- Gemma-2B - Google,1.4GB大小
- DeepSeek-R1-Distill-1.5B - 深度求索,推理能力强
- Phi-2 (2.7B) - 微软,性能优异
轻量模型 (7B级别)
推荐配置:8-16GB显存
- Qwen2.5-7B - 编程数学能力强 (HumanEval 85+, MATH 80+)
- Llama 3.1-8B - 128K上下文,通用性好
- Mistral-7B - 推理能力出色
- DeepSeek-Coder-7B - 专业编程模型
- Gemma-7B - 4.8GB大小,平衡性好
中等模型 (13B-32B)
推荐配置:16-32GB显存
- Qwen2.5-14B/32B - 性能接近大模型
- DeepSeek-V3 (37B激活) - MoE架构,效率高
- Mixtral 8x7B - 47B总参数,13B激活
- Llama 3.2-11B - 视觉语言模型
🔥 热门友好模型推荐
最受欢迎开源模型 (按下载量)
- Llama系列 - Meta,生态最完善
- Qwen系列 - 阿里巴巴,中文最佳
- Mistral系列 - 欧洲之光,商业友好
- DeepSeek系列 - 性价比之王
- Gemma系列 - Google出品,质量保证
新手最友好模型
本地部署简单:
- Ollama支持的模型:一键部署
ollama run llama3
(8B, 4.7GB)ollama run qwen:7b
ollama run gemma:2b
(1.4GB)ollama run deepseek-coder:7b
💻 本地部署硬件需求指南
显存需求计算公式
- 无量化:显存(GB) = 参数量(B) × 2
- 4bit量化:显存(GB) = 参数量(B) ÷ 2
- 8bit量化:显存(GB) = 参数量(B) × 1
硬件配置推荐
显存大小 | 推荐模型 | 量化方式 |
---|---|---|
4-8GB | 1B-3B模型 | 无需量化 |
8-16GB | 7B模型 | 4bit量化 |
16-24GB | 13B-14B模型 | 4bit量化 |
24-32GB | 32B模型 | 4bit量化 |
40GB+ | 70B+模型 | 4bit量化 |
CPU运行友好模型
- Phi-2 (2.7B) - CPU友好,性能不错
- TinyLlama (1.1B) - 专为资源受限设备设计
- Qwen2.5-0.5B - 超轻量,CPU可流畅运行
🚀 快速开始推荐
零基础入门路线
- Ollama + Qwen2.5-7B - 最佳中文体验
- Ollama + Llama 3.1-8B - 最佳通用体验
- Ollama + Gemma-2B - 最低硬件要求
- Ollama + DeepSeek-Coder-7B - 编程学习专用
进阶路线
- 本地部署Qwen2.5-32B - 接近商业模型体验
- 尝试DeepSeek-R1 - 体验开源推理能力
- 部署专业模型 - 如数学专用、代码专用等
📊 2024-2025最新排名总结
综合能力TOP5:
- DeepSeek-R1 (开源推理之王)
- QwQ-32B (阿里巴巴推理模型)
- Qwen2.5-72B (综合性能优异)
- Llama 3.1-405B (开源最大模型)
- Mixtral 8x22B (MoE架构典范)
个人学习TOP5:
- Qwen2.5-7B (中文+编程双强)
- Llama 3.1-8B (生态完善)
- DeepSeek-Coder-7B (编程专业)
- Gemma-7B (Google品质)
- Mistral-7B (推理优秀)
这个汇总覆盖了从超轻量CPU模型到大型GPU模型的完整谱系,你可以根据自己的硬件条件和学习目标选择合适的模型开始实践!