当前位置: 首页 > news >正文

windows使用ollama部署deepseek及qwen

ollama

参考文档

ollama
官方文档
GitHub仓库

基础环境:

NVIDIA 1660TI 6G

下载

ollma是一款开源工具,支持在本地计算机(无需联网)快速部署和运行大型语言模型(LLM),如 LLaMA、Mistral、Gemma 等。

直接在ollama页面根据自己的操作系统下载即可。

不过这里要提到的是,ollama一般都是个人验证使用,企业一般使用VLLM。

安装

ollma默认是安装到本地的C:\Users\用户名\AppData\Local\Programs下的,对于C盘容量较小的用户非常不友好,推荐使用下面的方式,更改ollma的安装路径。

使用管理员模式启动PowerShell,在命令行中访问ollama安装包所在的文件路径:

在这里插入图片描述

.\OllamaSetup.exe /DIR=D:\work\ollama\install
# /DIR=指向你想要的安装位置

这样ollama的安装路径,就修改了我们指定的位置

在这里插入图片描述

环境变量

这里需要提前设置一些环境变量,方便后面我们管理模型和使用ollama。ollama默认的下载地址为C:\Users\用户名.ollama

OLLAMA_MODELS:D:\work\ollma\OllamaCache  改变模型的存储路径。

在设置环境变量后,需要对电脑进行重启,或者重启ollama,不然配置不会生效。

下载并运行模型

在ollama官方文档中,我们可以看到ollama是支持deepseek满血版及更多的蒸馏模型的,这里因为我的笔记本显存有限,所以先选择了deepseek-r1:1.5b。

ollama run deepseek-r1:1.5b

执行命令后会自动拉取大模型的文件,我们就可以在命令行中和模型进行对话了。

在这里插入图片描述
在这里插入图片描述

qwen:4b模型运行:

ollama run qwen3:4b

在这里插入图片描述
在这里插入图片描述

相关文章:

  • 新能源汽车充电桩管理平台如何利用智慧技术优化资源配置问题?
  • UniApp 实现的文件预览与查看功能#三方框架 #Uniapp
  • Unity入门学习(三)3D数学(3)之Vector3类的介绍
  • kotlin flow的两种SharingStarted策略的区别
  • linux编译安装srs
  • Java(基础)day02 输入、输出、数组、重载、递归
  • 零基础设计模式——设计模式入门
  • SRS流媒体服务器(6)源码分析之推流篇
  • 范围管理的实践策略与创新应用
  • 博图1200硬件组态与启保停程序编写步骤详解
  • java的arraylist集合
  • 基于SpringBoot的家政预约系统
  • 鸿蒙 Background Tasks Kit(后台任务开发服务)
  • 全局配置文件
  • 如何确保低空经济中的数据安全?
  • Flink概述
  • 排序复习/下(C语言版)
  • Scala语言基础与函数式编程详解
  • Web3:Ubuntu系统 使用Docker-compose方式部署blockscout浏览器配置版本-v5.2.3-beta+charts图表
  • Web 技术与 Nginx 网站环境部署
  • 苏州1-4月进出口总值增长6.8%,工业机器人出口额倍增
  • 十年牢狱倒计时,一名服刑人员的期待与惶恐
  • 原核试验基地司令员范如玉逝世,从事核试验研究超40年
  • 菲律宾选举委员会公布中期选举结果,马科斯阵营选情未达预期
  • 上百家单位展示AI+教育的实践与成果,上海教育博览会开幕
  • 秦洪看盘|风格有所转变,热钱回流高弹性品种