当前位置: 首页 > news >正文

使用Ollama本地部署DeepSeek、GPT等大模型

本地部署大模型最简单的一种方案 - 使用ollama

一:什么是Ollama

Ollama 是一个用于本地运行大型语言模型(LLM)的开源工具或平台,主要用于让用户在自己的设备上(尤其是个人电脑)方便地加载和运行类似 ChatGPT、LLaMA、Mistral、Gemma 等语言模型。

  • Ollama 提供了一套工具和命令行接口,使你可以像使用 Docker 一样简单地拉取、运行、管理本地语言模型。

  • 它支持 Apple Silicon (M1/M2)LinuxWindows(WSL)

  • 可运行的模型包括 Meta 的 LLaMA、Mistral、Gemma、Phi 等等。

官网地址:Ollama

二:安装使用

2.1:安装

直接点击Download下载对应的安装包

我使用的是macOS

安装成功后会多一个羊驼标识的应用,

2.2:打开终端

ollama -- help

查看支持的命令:

三:部署模型

3.1:选择模型

在ollama官网点击左上角Models可以看到Ollama支持的模型列表,类似于Docker的镜像列表

可以看到它是安装下载热度排列的,我们现在要部署deepseek,所以选择deepseek-r1;

点击进入可以看到很多版本:

deepseek-r1:1.5b7b14b70b 等这些后缀中的 **b**,指的是模型的参数规模(参数数量),单位是 “billion(十亿)”。这是衡量一个大型语言模型规模的重要指标之一。

更多参数  通常代表模型更复杂,理解能力更强,生成内容更自然,但也更大更慢。

模型

参数量特点与适用场景
1.5b15亿超轻量,适合边缘设备、快速测试
7b70亿平衡性能与资源消耗,适合日常用
14b~32b中型模型需要更多内存和显存,推理效果更好
70b+大型模型非常强大,需高端 GPU(如 A100)、适合研究和高端生成任务
671b巨型模型多用于研究机构,极高的计算需求

3.2:复制命令

选择自己需要且合适的版本点击,然后复制命令:

3.3:终端执行

第一次执行会去下载镜像,下载成功后会运行,然后打开一个控制台:

四:使用大模型

4.1:终端对话

这个控制的就是我们平常使用的会话平台,可以和它聊天了,例子:

4.2:使用ollama对话

打开ollama,可以选择安装好的终端,可以看到deepseek-r1:1.5b已经下载安装好了,当然上面安装的操作也可以通过ollama界面进行操作:

同理可以安装上面的方式本地部署Models列表里的其他大模型

http://www.dtcms.com/a/320105.html

相关文章:

  • C++模拟法超超超详细指南
  • 连续最高天数的销售额(动态规划)
  • 如何让keil编译生成bin文件与反汇编文件?
  • 机器学习:线性回归
  • Win10桌面从默认C盘改到D盘
  • 小红书开源多模态视觉语言模型DOTS-VLM1
  • 深入剖析React框架原理:从虚拟DOM到Fiber架构
  • PCA9541调试记录
  • 软考中级【网络工程师】第6版教材 第2章 数据通信基础(下)
  • ansible 操作家族(ansible_os_family)信息
  • 网页中 MetaMask 钱包钱包交互核心功能详解
  • Redis缓存数据库深度剖析
  • ESXI7.0添加标准交换机过程
  • 通过CNN、LSTM、CNN-LSTM及SSA-CNN-LSTM模型对数据进行预测,并进行全面的性能对比与可视化分析
  • [Oracle] DECODE()函数
  • [Oracle] GREATEST()函数
  • GCC与NLP实战:编译技术赋能自然语言处理
  • Kubernetes(k8s)之Service服务
  • 【C语言】深入理解编译与链接过程
  • Java中的反射机制
  • 【AxureMost落葵网】企业ERP项目原型-免费
  • 上位机知识篇篇---驱动
  • Xvfb虚拟屏幕(Linux)中文入门篇1:(wikipedia摘要,适当改写)
  • 函数、方法和计算属性
  • 计网学习笔记第3章 数据链路层(灰灰题库)
  • [激光原理与应用-169]:测量仪器 - 能量型 - 光功率计(功率稳定性监测)
  • 记录:rk3568适配开源GPU驱动(panfrost)
  • Linux中Docker Swarm实践
  • 12-netty基础-手写rpc-编解码-04
  • ubuntu 2024 安装拼音输入法