当前位置: 首页 > news >正文

大模型实践:图文解锁Ollama在个人笔记本上部署llm

在这里插入图片描述

使用在线模型服务时,我们常常需要支付API调用费用,这对于个人开发者或小型组织来说可能是一笔不小的开支。那么,有没有方法可以在本地免费使用这些强大的模型呢?答案是肯定的——Ollama就是这样一个工具。
当然如果是比较大的组织或大模型推荐使用vLLM部署,强烈推荐您看(占坑,后续填上)

本文将介绍Ollama并且带您一步步在个人PC上部署一个自己的LLM。
笔者的电脑是windows,无GPU
将带您部署(若您计算机性能比较高,只需要参考文中模型与配置关系,更改更大模型即可)

Gemma 2B版本:约1.7GB

什么是Ollama?

Ollama是一个开源的大语言模型管理平台,它允许用户在本地机器上部署、管理和使用各种开源语言模型。

Ollama最出色的优点如下:

  1. 将开源模型(如DeepSeek、Llama等)下载并部署到本地。从而让公司实现私有化+免费部署LLM。

  2. 性能强大:充分利用本地资源,既可以使用GPU也可以使用CPU。如果没有Ollama,我们需要自己配置GPU环境如cuda等等,与传统的模型部署相比,Ollama大大简化了GPU环境配置的复杂性,降低了使用门槛。

  3. 跨平台支持:Ollama 支持 macOs、Windows、Linux 以及 Docker多种操作系统环境下顺利部署和使用。无论你使用什么系统,都可以轻松部署和使用Ollama。

Ollama的下载与安装

在官网下载即可,本文以windows为例。
最好确保您的计算机C盘有10G+磁盘空间,因为后文下的大模型都会比较大。
在这里插入图片描述

以Windows为例,Ollama的安装过程非常简单,笔者安装中也没有遇到任何问题:

  1. 双击下载的EXE安装包
  2. 在弹出的安装界面中点击"Install"按钮
  3. 等待安装完成(通常只需几分钟)

本机部署问答模型

Ollama支持多种流行的开源大语言模型,您可以通过访问Ollama官网的Models页面浏览所有可用模型。
在这里插入图片描述
浏览Ollama模型库时,您会注意到每个模型都有不同的版本,如7B、13B、33B等。这里的"B"表示"Billion"(十亿),所以7B表示70亿参数,13B表示130亿参数,依此类推。

根据Ollama官方的建议,不同参数量的模型对系统资源(特别是内存)有以下最低要求:

模型参数量最低内存需求
7B8GB RAM
13B16GB RAM
33B32GB RAM
70B128GB RAM

需要特别注意的是,虽然一些特别大的模型(如400GB+)可以下载到本地,但您的设备可能没有足够的GPU或CPU资源来流畅运行它们。

对于普通个人电脑用户,建议选择10GB以下大小的模型以保证运行流畅。

语言类模型推荐

  1. Gemma - Google开发的开源模型,性能优秀,资源需求适中
  2. DeepSeek - 中国开发的强大语言模型,各方面表现均衡
  3. Qwen(千问) - 阿里巴巴开发的模型,中文能力出色

视觉类模型推荐

  1. LLaVA - 专为图像识别和理解训练的模型,能够分析和描述图片内容
  2. MiniCPM-V - 轻量级但功能强大的视觉模型,支持图像理解和生成

实操过程

安装完Ollama后,我们首先需要下载模型才能开始使用。本文我们以Google开发的Gemma 2b模型为例。在官网查询gemma模型,输入后可以看到以下界面。红色方框的是命令行下下载gemma的命令ollama run gemma:2b。同时也可以看到这个模型大概会占用1.7GB磁盘
在这里插入图片描述
CMD中安装,下载完成后会直接启动该模型,我问了个给我讲个笑话:
在这里插入图片描述

常见命令

ollama list 列出所有已安装的模型
ollama pull [模型名称] 下载模型但不运行
ollama run [模型名称] 运行模型(首次会自动下载)
/clear 清除当前对话上下文,保持模型运行
Ctrl+D 退出当前模型

Ollama进阶:自定义模型创建与参数调优指南

在Ollama中,自定义模型是指基于已有的开源模型,通过调整其参数和行为特征来创建一个新模型。这个过程不涉及真正的模型训练或微调,而是通过配置文件来改变模型的输出特性和交互方式

步骤一:创建Modelfile配置文件

首先,我们需要创建一个名为Modelfile的文本文件,在这个文件中定义模型的基础信息和参数。这个文件的基本结构如下:

FROM [基础模型名称]
PARAMETER [参数名] [参数值]
SYSTEM [系统提示词]

例如,我们的Modelfile是这样的:

FROM gemma:2b
PARAMETER temperature 0.8
SYSTEM 你是一名叫做小智的助手,专长领域是文学和历史相关内容,喜欢使用生动有趣的方式与用户交谈。

这个配置包含三个主要部分:

  • FROM:指定基础模型,这里我们选择了本机已装好的gemma:2b模型
  • PARAMETER:设置模型参数,这里将temperature(温度)设为0.9
  • SYSTEM:定义系统提示词,告诉模型它的角色和行为特点

步骤二:保存Modelfile文件

将创建好的Modelfile保存到本地磁盘,例如保存到C盘根目录。需要注意的是,这个文件不需要任何扩展名,就是纯文本的Modelfile

这里笔者是保存在C:\Users\86199\AppData\Local\Ollama中的
在这里插入图片描述

步骤三:使用Ollama创建命令

使用以下命令创建自定义模型:

ollama create [自定义模型名称] -f [Modelfile路径]

例如:

ollama create mymodel -f C:\Users\86199\AppData\Local\Ollama\Modelfile

执行该命令后,Ollama会读取Modelfile中的配置,基于指定的基础模型创建一个新的自定义模型。成功后,会显示"success"提示。

若您想明确模型是否创建成功,使用ollama list命令查看本地模型列表,确认自定义模型已成功创建。新创建的模型会以指定的名称出现在列表中。
在这里插入图片描述

步骤四:使用自定义模型

创建完成后,可以像使用其他模型一样运行自定义模型:

ollama run mymodel

在这里插入图片描述

相关文章:

  • 学习黑客红队模拟演练报告
  • 如何克服情绪拖延症?
  • 《算法导论(原书第3版)》下载
  • 【Java学习笔记】方法重载
  • Redis 过期与淘汰机制全解析
  • 【操作系统】吸烟者问题
  • 【深度解析】DCN-V2:Google新一代特征交叉网络,如何实现推荐系统精准度飞跃?
  • python hasattr()
  • C++基础算法9:Dijkstra
  • Spring AI 实战:第七章、Spring AI Advisor机制之记忆大师
  • 前端面试每日三题 - Day 24
  • 入门Linux 进程:进程概念、进程状态与进程地址空间
  • NPP库中libnppitc模块介绍
  • 49认知干货:产品的生命周期及类型汇总
  • MYSQL数据库突然消失
  • C语言:文件操作
  • 谷歌 NotebookLM 支持生成中文播客
  • 【项目篇之统一硬盘操作】仿照RabbitMQ模拟实现消息队列
  • 【SQL触发器、事务、锁的概念和应用】
  • 计算机网络:详解TCP协议(四次握手三次挥手)
  • 两个灵魂,一支画笔,意大利艺术伴侣的上海灵感之旅
  • 新华社:让历史照鉴未来
  • 5月2日,全社会跨区域人员流动量完成29275.4万人次
  • 来论|受美国“保护”,日本民众要付出什么代价?
  • 应急管理部派出工作组赴山西太原小区爆炸现场指导救援处置
  • 量子传感新技术“攻克”退相干难题