当前位置: 首页 > news >正文

【大模型本地运行与部署框架】Ollama的使用记录

文章目录

  • 0 简介
  • 1 安装Ollama
    • 1.1 windows系统下的本地安装
    • 1.2 python Ollama框架安装
  • 2 运行模型
    • 2.1 在命令行工具(CLI)运行和部署模型
      • 2.1.1 本地运行模型
      • 2.2.2 部署模型【待补充】
    • 2.2 使用python SDK配置与运行模型
      • 2.2.1 简单使用
      • 2.2.2 对话模型
      • 2.2.3 更多
    • 2.3 自定义模型运行和部署【待补充】

0 简介

定位: Ollama是一款开源的本地大模型运行框架。

便于在本地服务器便捷地快速部署、运行和管理大语言模型。
支持常见大模型本地部署,例如deepseek系列、llama系列、qwen系列等等。

1 安装Ollama

本安装教程有两种:1.为基于windows系统的本地安装,要求Windows 10 22H2 或更高版本、家庭版或专业版;2. python ollama库安装。
其余系统或环境下的安装,请见官方文档。

1.1 windows系统下的本地安装

官网软件包的下载地址:https://ollama.com/download
下载后,直接双击运行后,点击install,自动安装完成。(别慌,请往下看完)

这种是默认安装形式,默认安装在主目录,如果你的c盘足够大的话,完全没有问题。在这里插入图片描述

BUT :如果有多个分区,C区主用作系统盘。
随着后期ollama下载了多个模型,每个模型将会占用数十或数百GB的空间。如果主盘没有足够空间的话,将影响系统运行。

那么,建议参考使用官方给出的更改安装位置

step 1 :自定义ollama安装路径

先进入到下载软件包的文件夹(这个需要你自己去确认),在该处进入控制台界面;

再在控制台界面输入OllamaSetup.exe /DIR="d:\some\location,意为用命令语句来安装ollama,并指定安装地址。
OllamaSetup.exe指的是软件安装包的名字;
/DIR="d:\some\location携带的地址参数,d:\some\location代表你的指定安装路径,可修改此参数值。

例如,我想将ollama安装到 D:\LLM\Ollama,那么我的运行语句为 :OllamaSetup.exe /DIR="D:\LLM\Ollama"

step 2:修改model的安装位置。

安装好后,会自动启动ollama。
这时查看一下model的下载位置,通常依旧还是在c盘。查看方式为:

    右键图标,点击setting
在这里插入图片描述

    setting界面查看model location的路径是否默认位置,即C:\users\yourname\.ollama\models

此时,需要我们手动修改:

    先新建一个你想存放的空文件夹,可以选择保存相同子目录(.ollama\models),例如我的新路径为D:\
    然后将原路径下的所有文件移动到你所新建的地址。

例如,我想将我的模型存放在 D:\LLM下,并且想要保持一样的子目录,我所做的操作是:先在 D:\LLM 目录下,新建二级目录也就是 D:\LLM\.ollama\models接着,在设置界面的model location 的路径进行修改最后,将默认路径 C:\users\yourname\.ollama\models 下的所有东西剪切到D:\LLM\.ollama\models

在这里插入图片描述

step 3:验证安装结果。

命令行输入ollama --version,若返回版本号,则说明安装成功!
在这里插入图片描述

1.2 python Ollama框架安装

使用pip或者conda安装ollama库即可。

2 运行模型

2.1 在命令行工具(CLI)运行和部署模型

2.1.1 本地运行模型

在官网中https://ollama.com/search,查找所支持的模型
直接在搜索框中进行搜索,大部分模型都可以支持,
在这里插入图片描述

这里以deepseek为例,下图是搜索结果,
在这里插入图片描述

我们选择deepseek-r1,进入后界面:
     右上角会显示执行命令;
     下方会显示多个不同参数的模型。(这里我们要注意,例如DeepSeek-R1-Distill-Qwen-1.5B,之所以参数量级较少,其实是【等待补充】)
在这里插入图片描述

接着选择想要下载的具体参数大小的模型,这里我选择deepseek-r1:1.5b,将该模型安装到本地,即执行 ollama run deepseek-r1:1.5b
在这里插入图片描述
等待下载,下载后,会直接运行该模型
在这里插入图片描述

到这里,恭喜你在本地运行成功!
结束对话,可以直接在send a message位置输入/bye或 键入ctrl+d,即可关闭对话。


这里,简单记录一下其他的常见命令:

① 查看模型的配置文件:ollama show --modelfile deepseek-r1:1.5b
每个文件都有这个modelfile,我们也可以自己写modelfile,去运行自定义模型。
这里注意看红线部分,这里也可以查看你模型现在在哪个位置。如果你的模型位置显示的是1.1中你所自定义的model location路径,则配置没有问题。
在这里插入图片描述

② 查看本地安装的模型列表:ollama list
在这里插入图片描述

2.2.2 部署模型【待补充】

2.2 使用python SDK配置与运行模型

适用场景:如果你希望将 Ollama 与 Python 代码集成,进行加载或运行模型。

2.2.1 简单使用

新建文件,可以写以下简单的以下文本。

import ollama
response = ollama.generate(model="deepseek-r1:1.5b",  # 模型名称prompt="你好。"  # 提示文本
)
print(response)

接下来,运行该python文件,就可以得到输出结果。

2.2.2 对话模型

from ollama import chatmessages = [{'role': 'user','content': '为什么天空是蓝色?',},]response = chat('deepseek-r1:1.5b', messages=messages)
print(response['message']['content'])

2.2.3 更多

更多使用模板见https://github.com/ollama/ollama-python/blob/main/examples/README.md

2.3 自定义模型运行和部署【待补充】

使用场景

步骤
ollama create model -of ./Modelfile

http://www.dtcms.com/a/338783.html

相关文章:

  • 选项式api和组合式api
  • 【冒泡排序】
  • Java 检查给定的四个点是否形成正方形(Check if given four points form a square)
  • Springboot 3 上传图片,并返回路径让前端显示图片
  • 《UE5_C++多人TPS完整教程》学习笔记43 ——《P44 奔跑混合空间(Running Blending Space)》
  • 监督分类——最小距离分类、最大似然分类、支持向量机
  • Spring Boot 敏感词过滤组件实现:基于DFA算法的高效敏感词检测与替换
  • BROADCHIP广芯电子在各类电子产品的方案与应用
  • 3、栈和队列
  • Ansible 配置并行 - 项目管理笔记
  • 零知开源——基于STM32F407VET6与GY-271三轴地磁传感器的高精度电子罗盘设计与实现
  • TensorFlow 面试题及详细答案 120道(11-20)-- 操作与数据处理
  • Auto-CoT:大型语言模型的自动化思维链提示技术
  • OpenCV快速入门(C++版)
  • 常见的 Bash 命令及简单脚本
  • 从 0 到 1 开发校园二手交易系统:飞算 JavaAI 全流程实战
  • 无畏契约手游上线!手机远控模拟器畅玩、抢先注册稀有ID!
  • Windows/Centos 7下搭建Apache服务器
  • MySQL-分库分表(Mycat)
  • 第一章 认识单片机
  • 出现了常规系统错误: Unable to push signed certificate to host 192.168.1.2
  • 从数据表到退磁:Ansys Maxwell中N48磁体磁化指南
  • LINUX 软件编程 -- 线程
  • 决策树的学习(二)
  • MCP(模型上下文协议):是否是 AI 基础设施中缺失的标准?
  • jsPDF 不同屏幕尺寸 生成的pdf不一致,怎么解决
  • Ansible 中的文件包含与导入机制
  • java17学习笔记-Deprecate the Applet API for Removal
  • C语言基础:(十八)C语言内存函数
  • 连接远程服务器上的 jupyter notebook,解放本地电脑