当前位置: 首页 > news >正文

一起学习大语言模型-常用命令及模型介绍

如何下载模型

通过ollama pull命令来下载需要的模型, 如:

ollama pull qwen2.5
ollama pull deepseek-r1
ollama pull deepseek-r1:671b

常用模型介绍

模型名大小模型介绍应用场景
codellama7b-70b代码生成与讨论模型,支持多语言代码任务软件开发、代码解释、编程辅助
deepseek-coder1.3b-33b基于 2 万亿代码和自然语言训练的编码模型,性能接近 GPT4-Turbo代码开发、算法实现、漏洞修复
gemma31b-27b单 GPU 运行的高性能模型,支持视觉任务图像识别、视觉问答、多模态交互
llama27b-70bMeta 开源基础模型,支持多任务通用场景对话系统、文本生成、知识问答
llama38b-70bMeta 最新开源模型,性能接近 405B 版本复杂推理、长文本处理、专业领域任务
llava7b-34b多模态模型(视觉 + 语言),支持图像理解与对话视觉问答、图文生成、跨模态交互
mistral7bMistral AI 发布的高效模型,更新至 0.3 版代码生成、数学推理、多语言支持
phi414b微软开源的 14B 参数模型,性能领先复杂推理、长文本理解、多语言任务
qwen2.50.5b-72b阿里巴巴训练的多语言模型,支持 128K 上下文窗口多语言对话、长文本处理、跨领域任务
stable-code3b轻量级代码模型,性能媲美 7B 模型代码补全、算法开发、低资源环境下的编码任务
vicuna7b-33b基于 Llama 的对话模型,支持 2K-16K 上下文窗口日常对话、客服系统、简单问答
wizardlm7b-8x22b微软优化的多语言模型,擅长复杂对话和推理专业领域问答、多语言支持、复杂逻辑处理

根据官方文档建议,运行模型需要的内存大小如下:

7b的模型需要至少8GB内存

13b的模型需要至少16GB内存

33b的模型需要至少32GB内存

一般我们本机学习开发的时候可以尝试使用这几种模型就基本够了, llama3.2:3b, qwen2.5:7b, llama3.2-vision:11b

查看已下载的本地模型

通过命令ollama list查看本地已下载的模型

查看当前正在运行的模型

通过命令ollama ps 查看当前正在运行的模型

更多的命令和环境变量查看

通过ollama -h查看支持的更多命令

通过ollama serve -h查看支持的环境变量配置

相关文章:

  • 输电线路航空标志球:低空飞行的安全路标 / 恒峰智慧科技
  • WiFi(无线局域网)技术的多种工作模式
  • Nest.js学习路径
  • Linux SDHCI 驱动解析:硬件原理与核心机制全解
  • 实现一个分布式锁需要考虑哪些问题
  • Windows 平台下AnythingLLM本地开发环境运行踩坑记录
  • Git相关笔记1 - 本地文件上传远程仓库
  • rdp,ssh,云主机,虚拟主机,宝塔,远程桌面是什么
  • 2025 年浙江特种设备考试攻略:细节决定成败​
  • Java 大视界 -- 基于 Java 的大数据实时流处理在工业物联网设备状态监测中的应用与挑战(167)
  • 【注解和interface的那点事】
  • 选择省市区
  • 图基RAG方法全景分析 | 高级检索增强生成技术Graph-based RAG
  • deepseek v3-0324实现浏览器插件:图片抓取与下载工具
  • 【MathType】MathType安装和嵌入word
  • 如何在 WordPress 中查找帖子、分类、标签、评论或用户 ID
  • 《数据王国的记忆家族》
  • ChatGPT 迎来 4o模型:更强大的图像生成能力与潜在风险
  • OpenCV界面编程
  • Sora 2.0商业应用:从文本生成可交互的3D数字人
  • 马上评|科学红毯,让科学家成为“最亮的星”
  • 在美国,为什么夏季出生的孩子更容易得流感?
  • “家国万里时光故事会” 举行,多家庭共话家风与家国情怀
  • 俄代表团:16日上午将继续“等候乌代表团”
  • 经济日报评外卖平台被约谈:行业竞争不能背离服务本质
  • 小耳朵等来了春天:公益义诊筛查专家走进安徽安庆