当前位置: 首页 > news >正文

Ollama01-安装教程

一、引言:为什么选择Ollama?

Ollama 是一个轻量级的本地大语言模型运行平台,支持多种开源模型(如 DeepSeek、Llama 等)。通过 Ollama,你可以在本地设备上高效运行大语言模型,无需依赖云端服务,保障隐私和数据安全。本教程将详细指导你在 Windows 系统上完成 Ollama 的安装、配置及模型运行。


二、准备工作:系统要求与工具

  1. 操作系统
    • Windows 10/11(64位)。
  2. 硬件配置
    • 内存:至少 8GB(推荐 16GB 以上,运行大型模型更流畅)。
    • 存储空间:10GB 以上(模型文件可能占用较大空间)。
  3. 网络环境
    • 稳定的互联网连接(用于下载安装包和模型)。

三、安装 Ollama 的详细步骤

1. 下载 Ollama 安装包
  1. 访问官网
    打开浏览器,进入 Ollama 官网。
  2. 获取 Windows 版本
    • 点击页面上的 Download 按钮,跳转到 下载页面。
    • 点击 Download for Windows 按钮,下载安装包(通常为 OllamaSetup.exe)。
    • 如果官网未直接提供,可前往 GitHub Releases 页面 手动下载最新版。
2. 安装 Ollama
  1. 运行安装程序
    • 双击下载的 OllamaSetup.exe 文件。
    • 如果系统弹出用户账户控制(UAC)提示,点击 “是” 允许操作。
  2. 选择安装路径(可选)
    • 默认安装路径C:\Users\<用户名>\AppData\Local\Programs\Ollama
    • 自定义安装路径
      • 打开命令提示符(CMD),导航到安装包所在目录。
      • 输入以下命令并回车(将 D:\ollama 替换为你希望安装的路径):
        OllamaSetup.exe /DIR="D:\ollama"
        
  3. 完成安装
    • 点击 Install 开始安装,安装完成后点击 Finish 退出安装程序。
    • 安装后,系统托盘会显示一个 羊驼图标,表示 Ollama 服务已启动。
3. 验证安装是否成功
  1. 打开命令提示符(CMD)或 PowerShell
    • 按下 Win + S,搜索 cmdPowerShell,右键选择 以管理员身份运行
  2. 输入验证命令
    • 在命令行中输入以下命令:
      ollama --version
      
    • 如果显示版本号(例如 ollama version 0.5.7),则表示安装成功。

四、配置 Ollama 的环境变量(可选但推荐)

1. 修改模型存储路径

默认情况下,Ollama 会将模型存储在 C:\Users\<用户名>\.ollama\models。为了避免 C 盘空间不足,建议将模型存储路径迁移到其他磁盘(如 D 盘)。

  1. 创建模型存储目录
    • 在非系统盘(如 D 盘)创建目录(例如 D:\ollama\models)。
  2. 设置环境变量
    • 右键点击 此电脑属性高级系统设置环境变量
    • 用户变量 中,点击 新建,添加以下变量:
      • 变量名OLLAMA_MODELS
      • 变量值D:\ollama\models(替换为你的实际路径)。
  3. 重启 Ollama 服务
    • 右键点击系统托盘中的羊驼图标,选择 Quit Ollama
    • 重新启动 Ollama 服务(系统托盘图标会重新出现)。
2. 其他可选配置
  • 允许局域网访问
    设置环境变量 OLLAMA_HOST=0.0.0.0,允许其他设备访问本地模型。
  • 修改服务端口
    设置环境变量 OLLAMA_PORT=8080(或其他端口号),避免端口冲突。
  • 关闭开机自启动
    删除以下路径中的快捷方式文件:
    %APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup\Ollama.lnk
    

五、运行你的第一个模型

1. 下载模型
  1. 选择模型
    • 访问 Ollama 模型库,搜索并选择模型(如 deepseek-r1)。
    • 根据你的设备性能选择合适的模型版本(如 deepseek-r1:1.5bdeepseek-r1:7b 等)。
  2. 复制下载命令
    • 在模型页面右侧找到 Run 按钮,复制对应的命令(例如:ollama run deepseek-r1:1.5b)。
2. 在命令行中运行模型
  1. 启动模型

    • 在命令提示符或 PowerShell 中粘贴并运行命令:
      ollama run deepseek-r1:1.5b
      
    • 首次运行:Ollama 会自动从仓库下载模型文件(约 1-7GB,具体时间取决于网络速度)。
    • 下载完成后,命令行会显示 >>> Send a message (/? for help),表示模型已准备好交互。
  2. 与模型交互

    • 输入问题或指令,模型会立即生成回答。例如:
      >>> 用 Python 写个程序用于绘制圆形
      
    • 模型会返回类似以下的代码:
      import matplotlib.pyplot as plt
      import numpy as np# 创建圆的参数
      radius = 1
      center = (0, 0)# 生成圆上的点
      theta = np.linspace(0, 2 * np.pi, 100)
      x = center[0] + radius * np.cos(theta)
      y = center[1] + radius * np.sin(theta)# 绘制圆形
      plt.plot(x, y)
      plt.axis('equal')  # 保持坐标轴比例一致
      plt.title("Circle with radius 1")
      plt.show()
      

六、高级配置与优化(可选)

1. 安装图形界面(Open WebUI)

如果你希望使用更友好的图形界面,可以安装 Open WebUI:

  1. 安装 Python 和 Node.js
    • Python 3.11:从 Python 官网 下载并安装。
    • Node.js 20.x:从 Node.js 中文网 下载并安装。
  2. 安装 Open WebUI
    • 在命令行中执行以下命令:
      pip install open-webui
      open-webui serve
      
    • 访问 http://localhost:8080,注册账号并选择本地模型(如 deepseek-r1:1.5b)即可开始交互。
2. 安全性与性能优化
  • 限制模型加载时间
    设置 OLLAMA_KEEP_ALIVE=24h,让模型在内存中保持 24 小时,提高响应速度。
  • 调整并发请求数量
    设置 OLLAMA_NUM_PARALLEL=4(根据 CPU 核心数调整),提升多任务处理能力。
  • 设置访问控制
    如果允许局域网访问,建议配置防火墙规则或使用身份验证(需自行开发)。

七、常见问题与故障排查

1. 安装失败或命令无法识别
  • 原因:安装路径未加入系统环境变量。
  • 解决方法
    • 确保 ollama.exe 所在目录(如 C:\Users\<用户名>\AppData\Local\Programs\Ollama)已添加到系统 PATH 变量中。
2. 模型下载速度慢
  • 原因:网络连接不稳定或模型服务器限制。
  • 解决方法
    • 使用国内镜像源(如 Ollama 中文镜像)下载模型。
3. C 盘空间不足
  • 原因:模型文件默认存储在 C 盘。
  • 解决方法
    • 通过 OLLAMA_MODELS 环境变量迁移模型存储路径。
4. 服务无法启动
  • 原因:端口冲突或权限问题。
  • 解决方法
    • 修改 OLLAMA_PORT 环境变量(如 8080)。
    • 以管理员身份运行 Ollama 安装程序。

八、结语

通过以上步骤,你已经成功在 Windows 系统上部署了 Ollama!现在你可以:

  • 运行多种大语言模型(如 DeepSeek、Llama 等)。
  • 离线使用 AI 功能,无需依赖云端服务。
  • 通过命令行或图形界面 与模型交互,完成代码生成、文本处理等任务。

推荐尝试的模型

  • deepseek-r1:1.5b(低配设备推荐)。
  • mistral(轻量级模型,适合快速响应)。
  • wizardcoder(专注于代码生成)。

以下是允许局域网访问 Ollama 服务以及修改服务端口的详细步骤:


一、允许局域网访问 Ollama 服务

1. 修改环境变量 OLLAMA_HOST

Ollama 默认仅监听本地地址(127.0.0.1),需将其改为监听所有网络接口(0.0.0.0)以允许局域网访问。

Windows 系统:

  1. 设置环境变量:

    • 右键点击 此电脑属性高级系统设置环境变量
    • 系统变量用户变量 中,点击 新建
    • 变量名:OLLAMA_HOST
      变量值:0.0.0.0
      (若需指定端口,可写为 0.0.0.0:11434,默认端口为 11434)
  2. 重启 Ollama 服务:

    • 右键点击系统托盘中的羊驼图标(Ollama 服务),选择 Quit Ollama
    • 重新启动 Ollama(双击桌面快捷方式或运行安装目录中的 Ollama.exe)。

Linux/macOS 系统:

  • 临时设置(重启后失效):
    export OLLAMA_HOST=0.0.0.0
    ollama serve
    
  • 永久设置(以 macOS 为例):
    1. 编辑 ~/.zshrc~/.bashrc 文件:
      nano ~/.zshrc
      
    2. 添加以下内容并保存:
      export OLLAMA_HOST=0.0.0.0
      
    3. 生效配置:
      source ~/.zshrc
      

2. 开放防火墙端口

默认端口为 11434,需在防火墙中允许外部访问。

Windows 系统:

  1. 通过图形界面开放端口:

    • 打开 控制面板Windows Defender 防火墙高级设置
    • 入站规则新建规则端口TCP
    • 输入端口号 11434 → 允许连接 → 选择网络类型(建议选 专用)→ 完成。
  2. 通过命令行开放端口(管理员权限):

    netsh advfirewall firewall add rule name="Allow Ollama Port 11434" dir=in action=allow protocol=TCP localport=11434
    

Linux/macOS 系统:

  • Ubuntu/Debian:
    sudo ufw allow 11434/tcp
    
  • CentOS/RHEL:
    sudo firewall-cmd --add-port=11434/tcp --permanent
    sudo firewall-cmd --reload
    

3. 验证局域网访问
  1. 获取本机 IP 地址:

    • Windows:打开命令提示符(cmd),输入:
      ipconfig
      
      找到 IPv4 地址(如 192.168.1.100)。
  2. 在局域网设备上测试访问:

    • 在浏览器或 API 工具中访问:
      http://<你的本机IP>:11434
      
    • 如果返回 Ollama is running,则表示配置成功。

二、修改 Ollama 服务端口

1. 设置环境变量 OLLAMA_PORT
  1. Windows 系统:

    • 临时设置(重启后失效):
      set OLLAMA_PORT=8080
      
    • 永久设置:
      • 环境变量 中添加:
        • 变量名:OLLAMA_PORT
          变量值:8080(自定义端口)
  2. Linux/macOS 系统:

    • 临时设置:
      export OLLAMA_PORT=8080
      ollama serve
      
    • 永久设置(以 macOS 为例):
      1. 编辑 ~/.zshrc
        nano ~/.zshrc
        
      2. 添加:
        export OLLAMA_PORT=8080
        
      3. 生效配置:
        source ~/.zshrc
        
  3. 通过命令行直接指定端口:

    • 启动 Ollama 时指定端口:
      ollama serve --port 8080
      
2. 修改后验证
  1. 重启 Ollama 服务(同上文步骤)。
  2. 访问新端口:
    • 浏览器或 API 工具访问:
      http://<你的本机IP>:8080
      

三、常见问题与注意事项

  1. 环境变量未生效:

    • 确保 Ollama 服务完全关闭后重新启动。
    • 检查环境变量拼写是否正确(如 OLLAMA_HOSTOLLAMA_PORT)。
  2. 防火墙冲突:

    • 确保防火墙已开放新端口(如 8080)。
    • 如果使用路由器,需检查是否限制了设备间的通信。
  3. 跨域问题(CORS):

    • 如果使用 Web 界面(如 Open WebUI),需设置 OLLAMA_ORIGINS=* 以允许任意来源访问:
      export OLLAMA_ORIGINS="*"
      
  4. 安全建议:

    • 避免开放敏感端口到公网(如 80443)。
    • 使用内网穿透工具(如 Cpolar)实现安全的外网访问。

如果需要进一步优化或扩展功能,可以参考 Ollama 的官方文档或社区资源。祝你探索 AI 世界愉快! 🚀

相关文章:

  • C#学习第25天:GUI编程
  • 关于支付组织
  • 黑马k8s(十五)
  • Mac的显卡架构种类
  • 数据透视表和公式法在Excel中实现去除重复计数的方法
  • 攻防世界RE-666
  • exti line2 interrupt 如何写中断回调
  • 关于使用QT时写客户端连接时因使用代理出现的问题
  • GeoTools 将 Shp 导入PostGIS 空间数据库
  • 路径规划算法BFS/Astar/HybridAstar简单实现
  • 如何实现Aurora MySQL 零停机升级
  • linux线程同步
  • ES6 扩展运算符与 Rest 参数
  • yum命令常用选项
  • nginx 基于IP和用户的访问
  • leetcode hot100刷题日记——15.岛屿数量
  • Docker 安装 Harbor 教程(搭建 Docker 私有仓库 harbor 避坑指南)【woodwhales.cn】
  • java基础(面向对象进阶)
  • STM32中的IIC协议和OLED显示屏
  • ARM笔记-ARM指令集
  • 山东德州网站建设哪家最专业/济南疫情最新情况
  • 部门网站建设怎么做/怎么样在百度上推广自己的产品
  • 网站改版提交给百度/青岛最新消息
  • 正规的南昌网站建设/网络营销渠道有哪几种
  • 西宁城东区建设局公租房网站/百度seo快速提升排名
  • 手游网站建设方案预算/电商培训机构哪家好