当前位置: 首页 > news >正文

【大模型系列】使用ollama本地运行千问2.5模型

接上一篇https://blog.csdn.net/Aqu415/article/details/145668678 介绍了win本地运行大模型的方式,这篇简单介绍ollama方式。

下载ollama

官网下载地址:https://ollama.com/download/windows
在这里插入图片描述
点击下载,后一路默认安装

校验安装结果

执行如下命令校验安装结果

ollama -v

在这里插入图片描述

更多命令参看: https://www.runoob.com/ollama/ollama-commands.html

运行模型

由于ollama类似docker模式,模型可以看作docker里的镜像;我们可以先可以把镜像先下载到本地,也可以让ollama帮我们下载;

如下我以 Qwen2.5-7B 为例子说明,

  • 第一步用魔塔sdk方式将模型下载到本地;
from modelscope import snapshot_download

if __name__ == '__main__':
    model_name = 'Qwen/Qwen2.5-7B-Instruct-GGUF'
    download_path = r'F:\model'

    snapshot_path = snapshot_download(model_name, cache_dir=download_path,allow_file_pattern="qwen2.5-7b-instruct-q5_0*.gguf")
    print(f'Model downloaded to: {snapshot_path}')

  • 制作Modelfile文件(该文件类型docker里的Dockerfile),内容如下:
FROM F:/model/Qwen/Qwen2___5-7B-Instruct-GGUF/qwen2.5-7b-instruct-q5_0.gguf

# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 0.7
PARAMETER top_p 0.8
PARAMETER repeat_penalty 1.05
PARAMETER top_k 20

TEMPLATE """{{ if .Messages }}
{{- if or .System .Tools }}<|im_start|>system
{{ .System }}
{{- if .Tools }}

# Tools

You are provided with function signatures within <tools></tools> XML tags:
<tools>{{- range .Tools }}
{"type": "function", "function": {{ .Function }}}{{- end }}
</tools>

For each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:
<tool_call>
{"name": <function-name>, "arguments": <args-json-object>}
</tool_call>
{{- end }}<|im_end|>
{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1 -}}
{{- if eq .Role "user" }}<|im_start|>user
{{ .Content }}<|im_end|>
{{ else if eq .Role "assistant" }}<|im_start|>assistant
{{ if .Content }}{{ .Content }}
{{- else if .ToolCalls }}<tool_call>
{{ range .ToolCalls }}{"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}}
{{ end }}</tool_call>
{{- end }}{{ if not $last }}<|im_end|>
{{ end }}
{{- else if eq .Role "tool" }}<|im_start|>user
<tool_response>
{{ .Content }}
</tool_response><|im_end|>
{{ end }}
{{- if and (ne .Role "assistant") $last }}<|im_start|>assistant
{{ end }}
{{- end }}
{{- else }}
{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ end }}{{ .Response }}{{ if .Response }}<|im_end|>{{ end }}"""

# set the system message
SYSTEM """你是阳仔,一个java程序员。"""

这个Modelfile文件是Qwen官网获取的ollama配置文件,链接:https://qwen.readthedocs.io/en/latest/run_locally/ollama.html

其中第一行的模型路径是刚下载的模型绝对路径,最后一行是角色指定;其他的设置参看ollama官网说明:https://www.llamafactory.cn/ollama-docs/modelfile.html

启动模型
  • 在Modelfile文件所在的目录执行如下命令,进行本地模型库加载
ollama create qwen2.5_7b -f Modelfile

在这里插入图片描述
succes表示成功

  • 查看模型库

查看本地模型列表命令

ollama list

在这里插入图片描述

  • 运行模型
    启动模型命令
ollama run qwen2.5_7b

在这里插入图片描述
启动成功,输入问题获得返回值

在这里插入图片描述

  • 停止模型
    执行命令如下
ollama stop qwen2.5_7b

到此使用ollama本地运行千问2.5 7b模型讲解完毕。

over~~

相关文章:

  • [字节青训_AI对话框]SSE交互规范、自定义事件、前后端数据传递、状态监听、连接和断开详解
  • knife4j+springboot3.4异常无法正确展示文档
  • (论文)使用双频分析检测 AI 合成的语音
  • 【大厂AI实践】微软:基于预训练的自然语言生成在搜索与广告中的应用
  • 高一英语拓展词汇第二版
  • 基于ArcGIS Pro、R、INVEST等多技术融合下生态系统服务权衡与协同动态分析实践应用
  • Android构建系统 - 03 编译执行流程
  • Zemax OpticStudio 中的扩散器建模
  • Linux网络安全
  • 如何利用机器学习实现信用风险评分
  • 深度剖析Seata源码:解锁分布式事务处理的核心逻辑
  • 一文掌握 Playwright 的详细使用
  • C++核心指导原则: 表达式和语句
  • AI赋能:使用AI代码生成器提升前端可访问性
  • 2024最新版鸿蒙纯血原生应用开发教程文档丨学习ArkTS语言-基本语法
  • glb模型压缩draco使用教程windows
  • 全方位监控AWS Application Load Balancer异常情况实战
  • LeetCodeHot100_0x02
  • 基于Grok3+NebulaGraph构建省市区乡镇街道知识图谱
  • 复杂提示工程:Chain-of-Thought vs Tree-of-Thought 范式对比
  • wordpress 反馈插件/seo关键词排名优化手机
  • 广州海珠建网站/品牌策划书案例
  • 陕西煤化建设集团网站/搜索引擎的作用
  • 做视频直播的网站/友情链接的形式
  • 美空间网站/苏州seo整站优化
  • 做展柜在哪些网站找客户/网页模板免费下载