当前位置: 首页 > news >正文

大模型小模型选型手册:开源闭源、国内国外全方位对比

市面上有哪些模型,国内与国外,开源和闭源,热门的 友好的,哪些是小模型 适合个人本地学习练习用的,按照这些维度或者更多的维度 汇总发我。我需要对 大模型和小模型 有一个总体的了解

基于最新的搜索结果,我为你整理一个全面的大模型和小模型汇总,按照你提到的各个维度来分类:

🌍 国内外模型分布

国外主流模型

闭源商业模型:

  • OpenAI系列:GPT-4o, GPT-4.5-Preview, o1-preview, o1-mini
  • Anthropic系列:Claude 3.5 Sonnet, Claude 3.7 Sonnet
  • Google系列:Gemini 2.0 Pro, Gemini 1.5 Pro, Gemini 2.5 Pro
  • Meta系列:部分闭源版本

开源模型:

  • Meta Llama系列:Llama 3, 3.1, 3.2, 3.3 (8B-405B)
  • Mistral AI系列:Mistral 7B, Mixtral 8x7B/8x22B, Mistral Large
  • Google开源:Gemma 2B/7B, Phi-3, Phi-4
  • 微软:Phi系列 (2.7B-4B)

国内主流模型

主要厂商分布:

  • 阿里巴巴:Qwen系列 (0.5B-72B), QwQ-32B
  • 深度求索:DeepSeek系列 (1B-671B), DeepSeek-R1
  • 字节跳动:Doubao-1.5-pro
  • 腾讯:Hunyuan-turbos
  • 智谱AI:GLM系列, GLM-Zero
  • 百度:ERNIE-4.0系列
  • 月之暗面:Kimi系列
  • 零一万物:Yi系列
  • 360:360智脑系列

🔓 开源 vs 闭源对比

顶级开源模型 (2024-2025)

模型名称参数量特点适用场景
DeepSeek-R1671B推理能力强,成本效益高复杂推理、编程
Qwen2.5-72B72B超越Llama3.1-405B性能通用任务、中文处理
Llama 3.1-405B405B最大开源模型企业级应用
Mixtral 8x22B141B (39B激活)MoE架构,效率高多语言、编程

顶级闭源模型

模型名称开发商Elo评分特点
o3-miniOpenAI76.01最新推理模型
DeepSeek-R1深度求索70.33开源推理之王
Claude 3.7 SonnetAnthropic68.02对话体验佳
GPT-4.5-PreviewOpenAI67.46综合能力强

📱 小模型推荐 (适合个人本地学习)

超轻量模型 (1B-3B)

最适合CPU运行:

  • Qwen2.5-0.5B/1.5B/3B - 阿里巴巴,中文友好
  • Llama 3.2-1B/3B - Meta,移动端优化
  • Gemma-2B - Google,1.4GB大小
  • DeepSeek-R1-Distill-1.5B - 深度求索,推理能力强
  • Phi-2 (2.7B) - 微软,性能优异

轻量模型 (7B级别)

推荐配置:8-16GB显存

  • Qwen2.5-7B - 编程数学能力强 (HumanEval 85+, MATH 80+)
  • Llama 3.1-8B - 128K上下文,通用性好
  • Mistral-7B - 推理能力出色
  • DeepSeek-Coder-7B - 专业编程模型
  • Gemma-7B - 4.8GB大小,平衡性好

中等模型 (13B-32B)

推荐配置:16-32GB显存

  • Qwen2.5-14B/32B - 性能接近大模型
  • DeepSeek-V3 (37B激活) - MoE架构,效率高
  • Mixtral 8x7B - 47B总参数,13B激活
  • Llama 3.2-11B - 视觉语言模型

🔥 热门友好模型推荐

最受欢迎开源模型 (按下载量)

  1. Llama系列 - Meta,生态最完善
  2. Qwen系列 - 阿里巴巴,中文最佳
  3. Mistral系列 - 欧洲之光,商业友好
  4. DeepSeek系列 - 性价比之王
  5. Gemma系列 - Google出品,质量保证

新手最友好模型

本地部署简单:

  • Ollama支持的模型:一键部署
    • ollama run llama3 (8B, 4.7GB)
    • ollama run qwen:7b
    • ollama run gemma:2b (1.4GB)
    • ollama run deepseek-coder:7b

💻 本地部署硬件需求指南

显存需求计算公式

  • 无量化:显存(GB) = 参数量(B) × 2
  • 4bit量化:显存(GB) = 参数量(B) ÷ 2
  • 8bit量化:显存(GB) = 参数量(B) × 1

硬件配置推荐

显存大小推荐模型量化方式
4-8GB1B-3B模型无需量化
8-16GB7B模型4bit量化
16-24GB13B-14B模型4bit量化
24-32GB32B模型4bit量化
40GB+70B+模型4bit量化

CPU运行友好模型

  • Phi-2 (2.7B) - CPU友好,性能不错
  • TinyLlama (1.1B) - 专为资源受限设备设计
  • Qwen2.5-0.5B - 超轻量,CPU可流畅运行

🚀 快速开始推荐

零基础入门路线

  1. Ollama + Qwen2.5-7B - 最佳中文体验
  2. Ollama + Llama 3.1-8B - 最佳通用体验
  3. Ollama + Gemma-2B - 最低硬件要求
  4. Ollama + DeepSeek-Coder-7B - 编程学习专用

进阶路线

  1. 本地部署Qwen2.5-32B - 接近商业模型体验
  2. 尝试DeepSeek-R1 - 体验开源推理能力
  3. 部署专业模型 - 如数学专用、代码专用等

📊 2024-2025最新排名总结

综合能力TOP5:

  1. DeepSeek-R1 (开源推理之王)
  2. QwQ-32B (阿里巴巴推理模型)
  3. Qwen2.5-72B (综合性能优异)
  4. Llama 3.1-405B (开源最大模型)
  5. Mixtral 8x22B (MoE架构典范)

个人学习TOP5:

  1. Qwen2.5-7B (中文+编程双强)
  2. Llama 3.1-8B (生态完善)
  3. DeepSeek-Coder-7B (编程专业)
  4. Gemma-7B (Google品质)
  5. Mistral-7B (推理优秀)

这个汇总覆盖了从超轻量CPU模型到大型GPU模型的完整谱系,你可以根据自己的硬件条件和学习目标选择合适的模型开始实践!

相关文章:

  • Vulkan 学习(18)---- 使用 ValidationLayer
  • Function Calling与MCP的区别
  • python训练day44 预训练模型
  • Windows系统安装鸿蒙模拟器
  • 原型设计Axure RP网盘资源下载与安装教程共享
  • wpf的Binding之UpdateSourceTrigger
  • Go语言--语法基础6--基本数据类型--数组类型(2)
  • MATLAB GUI界面设计 第七章——高级应用
  • 领域驱动设计(DDD)【26】之CQRS模式初探
  • 大语言模型训练阶段
  • Tang Prime 20K板OV2640例程
  • 30套精品论文答辩开题报告PPT模版
  • (八)聚类
  • node js入门,包含express,npm管理
  • 【3.3】Pod详解——容器探针部署第一个pod
  • Python 可迭代的对象、迭代器 和生成器(另一个示例:等差数列生成器)
  • 设计模式 | 组合模式
  • Excel之证件照换底色3
  • Ubuntu无法显示IP地址
  • 【算法设计与分析】(二)什么是递归,以及分治法的基本思想