当前位置: 首页 > news >正文

Windows 下 Ollama 安装deepseek本地模型

Windows 下 Ollama 安装deepseek本地模型

安装 Ollama

  1. 下载 Ollama
  • 下载链接:https://ollama.org.cn/download/windows

  • 下载完成后,按照提示进行安装。

  1. 安装过程
  • 安装完成后,安装页面会自动关闭,这是正常现象。

  • 接下来,我们需要修改环境变量。

  1. 设置环境变量
  • 使用以下命令在控制台中创建环境变量,修改后请记得终止相关进程:
setx OLLAMA_MODELS "D:\ollama_model"

  1. 常用环境变量参数

Ollama 安装完成后,建议设置以下环境变量参数以优化使用体验:

  • OLLAMA_MODELS:模型文件存放目录。默认目录为当前用户目录(Windows:C:\Users\%username%\.ollama\models,MacOS:~/.ollama/models,Linux:/usr/share/ollama/.ollama/models)。建议 Windows 用户修改为其他目录(如:D:\OllamaModels),以避免占用 C 盘空间。

  • OLLAMA_HOST:Ollama 服务监听的网络地址。默认为 127.0.0.1,如果允许其他设备访问(如局域网中的其他电脑),建议设置为 0.0.0.0

  • OLLAMA_PORT:Ollama 服务监听的默认端口。默认为 11434,如果端口冲突,可以修改为其他端口(如:8080)。

  • OLLAMA_ORIGINS:HTTP 客户端请求来源。可以设置为 *,表示允许所有来源。

  • OLLAMA_KEEP_ALIVE:模型加载到内存后的存活时间。默认为 5m(5 分钟),可以设置为 24h,表示模型在内存中保持 24 小时,以提高访问速度。

  • OLLAMA_NUM_PARALLEL:请求处理并发数量。默认为 1,可以根据实际情况调整。

  • OLLAMA_MAX_QUEUE:请求队列长度。默认为 512,超过队列长度的请求将被丢弃。

  • OLLAMA_DEBUG:输出 Debug 日志标识。开发阶段可以设置为 1,以便输出详细日志信息。

  • OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中的模型数量。默认为 1

安装本地模型

  1. 安装模型
  • 按下 Win + R,输入 cmd 打开命令提示符。

  • 执行以下命令安装模型:

ollama run deepseek-r1:1.5b
  • 等待安装完成后,即可开始使用模型。
  1. 使用模型
  • 安装成功后,输入问题即可获得模型的回答。

总结

通过以上步骤,您可以在 Windows 系统上成功安装并配置 Ollama,并加载本地模型进行使用。

相关文章:

  • Java集合框架大师课:从青铜到王者的数据结构指南(一)
  • 大白话React第一章基础入门
  • 纷析云开源版- Vue2-增加字典存储到localStorage
  • 若依按照时间段查询
  • 开源且免费的CMS系统有哪几个可以放心用?
  • 自动化之ansible(二)
  • 【反馈-建立负反馈,警惕正反馈-关键字摘要】
  • 【详细讲解在STM32的UART通信中使用DMA机制】
  • 23.4 MSHTML组件
  • pycharm 调试 debug 进入 remote_sources
  • C/C++高性能Web开发框架全解析:2025技术选型指南
  • CompletableFuture 使用和源码解读
  • JAVA版本游戏进程读写操作
  • Java 大视界 -- 国际竞争与合作:Java 大数据在全球市场的机遇与挑战(94)
  • 网络安全运维服务手册 运维网络安全相关知识
  • hot100_70. 爬楼梯
  • MTK-Android13-包安装器PackageInstaller 静默安装实现
  • Python之装饰器三 踩坑(带参数,不带参数,两者都带参数)
  • SpringBoot线程池的使用
  • QML 实现一个动态的启动界面
  • 春决火爆的背后,PEL如何做大这块电竞蛋糕
  • 痴情与真爱
  • 王毅同丹麦外交大臣会谈,表示在格陵兰问题充分尊重丹麦主权和领土完整
  • 贵州茅台:支持工作餐不上酒的规定,请投资者相信茅台创新和自我调节能力
  • 减负举措如何助力基层干部轻装上阵?记者一线调查
  • 中国旅游日|上天当个“显眼包”!低空经济的“飞”凡魅力