当前位置: 首页 > news >正文

windows使用ollama部署deepseek及qwen

ollama

参考文档

ollama
官方文档
GitHub仓库

基础环境:

NVIDIA 1660TI 6G

下载

ollma是一款开源工具,支持在本地计算机(无需联网)快速部署和运行大型语言模型(LLM),如 LLaMA、Mistral、Gemma 等。

直接在ollama页面根据自己的操作系统下载即可。

不过这里要提到的是,ollama一般都是个人验证使用,企业一般使用VLLM。

安装

ollma默认是安装到本地的C:\Users\用户名\AppData\Local\Programs下的,对于C盘容量较小的用户非常不友好,推荐使用下面的方式,更改ollma的安装路径。

使用管理员模式启动PowerShell,在命令行中访问ollama安装包所在的文件路径:

在这里插入图片描述

.\OllamaSetup.exe /DIR=D:\work\ollama\install
# /DIR=指向你想要的安装位置

这样ollama的安装路径,就修改了我们指定的位置

在这里插入图片描述

环境变量

这里需要提前设置一些环境变量,方便后面我们管理模型和使用ollama。ollama默认的下载地址为C:\Users\用户名.ollama

OLLAMA_MODELS:D:\work\ollma\OllamaCache  改变模型的存储路径。

在设置环境变量后,需要对电脑进行重启,或者重启ollama,不然配置不会生效。

下载并运行模型

在ollama官方文档中,我们可以看到ollama是支持deepseek满血版及更多的蒸馏模型的,这里因为我的笔记本显存有限,所以先选择了deepseek-r1:1.5b。

ollama run deepseek-r1:1.5b

执行命令后会自动拉取大模型的文件,我们就可以在命令行中和模型进行对话了。

在这里插入图片描述
在这里插入图片描述

qwen:4b模型运行:

ollama run qwen3:4b

在这里插入图片描述
在这里插入图片描述

http://www.dtcms.com/a/200254.html

相关文章:

  • 新能源汽车充电桩管理平台如何利用智慧技术优化资源配置问题?
  • UniApp 实现的文件预览与查看功能#三方框架 #Uniapp
  • Unity入门学习(三)3D数学(3)之Vector3类的介绍
  • kotlin flow的两种SharingStarted策略的区别
  • linux编译安装srs
  • Java(基础)day02 输入、输出、数组、重载、递归
  • 零基础设计模式——设计模式入门
  • SRS流媒体服务器(6)源码分析之推流篇
  • 范围管理的实践策略与创新应用
  • 博图1200硬件组态与启保停程序编写步骤详解
  • java的arraylist集合
  • 基于SpringBoot的家政预约系统
  • 鸿蒙 Background Tasks Kit(后台任务开发服务)
  • 全局配置文件
  • 如何确保低空经济中的数据安全?
  • Flink概述
  • 排序复习/下(C语言版)
  • Scala语言基础与函数式编程详解
  • Web3:Ubuntu系统 使用Docker-compose方式部署blockscout浏览器配置版本-v5.2.3-beta+charts图表
  • Web 技术与 Nginx 网站环境部署
  • 大数据hadoop小文件处理方案
  • CRMEB多商户预约服务上门师傅端
  • 可编辑98页PPT | 某大型制造业数字化转型战略规划项目方案
  • 使用PowerShell备份和还原Windows环境变量
  • vue2.0 组件生命周期
  • MYSQL故障排查和环境优化
  • 学习黑客 PowerShell 详解
  • 远程医疗结合贴肤芯片技术对体育院校学生提升运动表现的路径分析
  • 详解Oracle HASH CHAIN和HASH BUCKET
  • PostgreSQL基本用法