Ollama01-安装教程
一、引言:为什么选择Ollama?
Ollama 是一个轻量级的本地大语言模型运行平台,支持多种开源模型(如 DeepSeek、Llama 等)。通过 Ollama,你可以在本地设备上高效运行大语言模型,无需依赖云端服务,保障隐私和数据安全。本教程将详细指导你在 Windows 系统上完成 Ollama 的安装、配置及模型运行。
二、准备工作:系统要求与工具
- 操作系统
- Windows 10/11(64位)。
- 硬件配置
- 内存:至少 8GB(推荐 16GB 以上,运行大型模型更流畅)。
- 存储空间:10GB 以上(模型文件可能占用较大空间)。
- 网络环境
- 稳定的互联网连接(用于下载安装包和模型)。
三、安装 Ollama 的详细步骤
1. 下载 Ollama 安装包
- 访问官网
打开浏览器,进入 Ollama 官网。 - 获取 Windows 版本
- 点击页面上的 Download 按钮,跳转到 下载页面。
- 点击 Download for Windows 按钮,下载安装包(通常为
OllamaSetup.exe
)。 - 如果官网未直接提供,可前往 GitHub Releases 页面 手动下载最新版。
2. 安装 Ollama
- 运行安装程序
- 双击下载的
OllamaSetup.exe
文件。 - 如果系统弹出用户账户控制(UAC)提示,点击 “是” 允许操作。
- 双击下载的
- 选择安装路径(可选)
- 默认安装路径:
C:\Users\<用户名>\AppData\Local\Programs\Ollama
。 - 自定义安装路径:
- 打开命令提示符(CMD),导航到安装包所在目录。
- 输入以下命令并回车(将
D:\ollama
替换为你希望安装的路径):OllamaSetup.exe /DIR="D:\ollama"
- 默认安装路径:
- 完成安装
- 点击 Install 开始安装,安装完成后点击 Finish 退出安装程序。
- 安装后,系统托盘会显示一个 羊驼图标,表示 Ollama 服务已启动。
3. 验证安装是否成功
- 打开命令提示符(CMD)或 PowerShell
- 按下
Win + S
,搜索 cmd 或 PowerShell,右键选择 以管理员身份运行。
- 按下
- 输入验证命令
- 在命令行中输入以下命令:
ollama --version
- 如果显示版本号(例如
ollama version 0.5.7
),则表示安装成功。
- 在命令行中输入以下命令:
四、配置 Ollama 的环境变量(可选但推荐)
1. 修改模型存储路径
默认情况下,Ollama 会将模型存储在 C:\Users\<用户名>\.ollama\models
。为了避免 C 盘空间不足,建议将模型存储路径迁移到其他磁盘(如 D 盘)。
- 创建模型存储目录
- 在非系统盘(如 D 盘)创建目录(例如
D:\ollama\models
)。
- 在非系统盘(如 D 盘)创建目录(例如
- 设置环境变量
- 右键点击 此电脑 → 属性 → 高级系统设置 → 环境变量。
- 在 用户变量 中,点击 新建,添加以下变量:
- 变量名:
OLLAMA_MODELS
- 变量值:
D:\ollama\models
(替换为你的实际路径)。
- 变量名:
- 重启 Ollama 服务
- 右键点击系统托盘中的羊驼图标,选择 Quit Ollama。
- 重新启动 Ollama 服务(系统托盘图标会重新出现)。
2. 其他可选配置
- 允许局域网访问:
设置环境变量OLLAMA_HOST=0.0.0.0
,允许其他设备访问本地模型。 - 修改服务端口:
设置环境变量OLLAMA_PORT=8080
(或其他端口号),避免端口冲突。 - 关闭开机自启动:
删除以下路径中的快捷方式文件:%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup\Ollama.lnk
五、运行你的第一个模型
1. 下载模型
- 选择模型
- 访问 Ollama 模型库,搜索并选择模型(如
deepseek-r1
)。 - 根据你的设备性能选择合适的模型版本(如
deepseek-r1:1.5b
、deepseek-r1:7b
等)。
- 访问 Ollama 模型库,搜索并选择模型(如
- 复制下载命令
- 在模型页面右侧找到 Run 按钮,复制对应的命令(例如:
ollama run deepseek-r1:1.5b
)。
- 在模型页面右侧找到 Run 按钮,复制对应的命令(例如:
2. 在命令行中运行模型
-
启动模型
- 在命令提示符或 PowerShell 中粘贴并运行命令:
ollama run deepseek-r1:1.5b
- 首次运行:Ollama 会自动从仓库下载模型文件(约 1-7GB,具体时间取决于网络速度)。
- 下载完成后,命令行会显示
>>> Send a message (/? for help)
,表示模型已准备好交互。
- 在命令提示符或 PowerShell 中粘贴并运行命令:
-
与模型交互
- 输入问题或指令,模型会立即生成回答。例如:
>>> 用 Python 写个程序用于绘制圆形
- 模型会返回类似以下的代码:
import matplotlib.pyplot as plt import numpy as np# 创建圆的参数 radius = 1 center = (0, 0)# 生成圆上的点 theta = np.linspace(0, 2 * np.pi, 100) x = center[0] + radius * np.cos(theta) y = center[1] + radius * np.sin(theta)# 绘制圆形 plt.plot(x, y) plt.axis('equal') # 保持坐标轴比例一致 plt.title("Circle with radius 1") plt.show()
- 输入问题或指令,模型会立即生成回答。例如:
六、高级配置与优化(可选)
1. 安装图形界面(Open WebUI)
如果你希望使用更友好的图形界面,可以安装 Open WebUI:
- 安装 Python 和 Node.js
- Python 3.11:从 Python 官网 下载并安装。
- Node.js 20.x:从 Node.js 中文网 下载并安装。
- 安装 Open WebUI
- 在命令行中执行以下命令:
pip install open-webui open-webui serve
- 访问
http://localhost:8080
,注册账号并选择本地模型(如deepseek-r1:1.5b
)即可开始交互。
- 在命令行中执行以下命令:
2. 安全性与性能优化
- 限制模型加载时间:
设置OLLAMA_KEEP_ALIVE=24h
,让模型在内存中保持 24 小时,提高响应速度。 - 调整并发请求数量:
设置OLLAMA_NUM_PARALLEL=4
(根据 CPU 核心数调整),提升多任务处理能力。 - 设置访问控制:
如果允许局域网访问,建议配置防火墙规则或使用身份验证(需自行开发)。
七、常见问题与故障排查
1. 安装失败或命令无法识别
- 原因:安装路径未加入系统环境变量。
- 解决方法:
- 确保
ollama.exe
所在目录(如C:\Users\<用户名>\AppData\Local\Programs\Ollama
)已添加到系统PATH
变量中。
- 确保
2. 模型下载速度慢
- 原因:网络连接不稳定或模型服务器限制。
- 解决方法:
- 使用国内镜像源(如 Ollama 中文镜像)下载模型。
3. C 盘空间不足
- 原因:模型文件默认存储在 C 盘。
- 解决方法:
- 通过
OLLAMA_MODELS
环境变量迁移模型存储路径。
- 通过
4. 服务无法启动
- 原因:端口冲突或权限问题。
- 解决方法:
- 修改
OLLAMA_PORT
环境变量(如8080
)。 - 以管理员身份运行 Ollama 安装程序。
- 修改
八、结语
通过以上步骤,你已经成功在 Windows 系统上部署了 Ollama!现在你可以:
- 运行多种大语言模型(如 DeepSeek、Llama 等)。
- 离线使用 AI 功能,无需依赖云端服务。
- 通过命令行或图形界面 与模型交互,完成代码生成、文本处理等任务。
推荐尝试的模型:
deepseek-r1:1.5b
(低配设备推荐)。mistral
(轻量级模型,适合快速响应)。wizardcoder
(专注于代码生成)。
以下是允许局域网访问 Ollama 服务以及修改服务端口的详细步骤:
一、允许局域网访问 Ollama 服务
1. 修改环境变量 OLLAMA_HOST
Ollama 默认仅监听本地地址(127.0.0.1
),需将其改为监听所有网络接口(0.0.0.0
)以允许局域网访问。
Windows 系统:
-
设置环境变量:
- 右键点击 此电脑 → 属性 → 高级系统设置 → 环境变量。
- 在 系统变量 或 用户变量 中,点击 新建。
- 变量名:
OLLAMA_HOST
变量值:0.0.0.0
(若需指定端口,可写为0.0.0.0:11434
,默认端口为 11434)
-
重启 Ollama 服务:
- 右键点击系统托盘中的羊驼图标(Ollama 服务),选择 Quit Ollama。
- 重新启动 Ollama(双击桌面快捷方式或运行安装目录中的
Ollama.exe
)。
Linux/macOS 系统:
- 临时设置(重启后失效):
export OLLAMA_HOST=0.0.0.0 ollama serve
- 永久设置(以 macOS 为例):
- 编辑
~/.zshrc
或~/.bashrc
文件:nano ~/.zshrc
- 添加以下内容并保存:
export OLLAMA_HOST=0.0.0.0
- 生效配置:
source ~/.zshrc
- 编辑
2. 开放防火墙端口
默认端口为 11434
,需在防火墙中允许外部访问。
Windows 系统:
-
通过图形界面开放端口:
- 打开 控制面板 → Windows Defender 防火墙 → 高级设置。
- 在 入站规则 → 新建规则 → 端口 → TCP。
- 输入端口号
11434
→ 允许连接 → 选择网络类型(建议选 专用)→ 完成。
-
通过命令行开放端口(管理员权限):
netsh advfirewall firewall add rule name="Allow Ollama Port 11434" dir=in action=allow protocol=TCP localport=11434
Linux/macOS 系统:
- Ubuntu/Debian:
sudo ufw allow 11434/tcp
- CentOS/RHEL:
sudo firewall-cmd --add-port=11434/tcp --permanent sudo firewall-cmd --reload
3. 验证局域网访问
-
获取本机 IP 地址:
- Windows:打开命令提示符(
cmd
),输入:
找到ipconfig
IPv4 地址
(如192.168.1.100
)。
- Windows:打开命令提示符(
-
在局域网设备上测试访问:
- 在浏览器或 API 工具中访问:
http://<你的本机IP>:11434
- 如果返回
Ollama is running
,则表示配置成功。
- 在浏览器或 API 工具中访问:
二、修改 Ollama 服务端口
1. 设置环境变量 OLLAMA_PORT
-
Windows 系统:
- 临时设置(重启后失效):
set OLLAMA_PORT=8080
- 永久设置:
- 在 环境变量 中添加:
- 变量名:
OLLAMA_PORT
变量值:8080
(自定义端口)
- 变量名:
- 在 环境变量 中添加:
- 临时设置(重启后失效):
-
Linux/macOS 系统:
- 临时设置:
export OLLAMA_PORT=8080 ollama serve
- 永久设置(以 macOS 为例):
- 编辑
~/.zshrc
:nano ~/.zshrc
- 添加:
export OLLAMA_PORT=8080
- 生效配置:
source ~/.zshrc
- 编辑
- 临时设置:
-
通过命令行直接指定端口:
- 启动 Ollama 时指定端口:
ollama serve --port 8080
- 启动 Ollama 时指定端口:
2. 修改后验证
- 重启 Ollama 服务(同上文步骤)。
- 访问新端口:
- 浏览器或 API 工具访问:
http://<你的本机IP>:8080
- 浏览器或 API 工具访问:
三、常见问题与注意事项
-
环境变量未生效:
- 确保 Ollama 服务完全关闭后重新启动。
- 检查环境变量拼写是否正确(如
OLLAMA_HOST
和OLLAMA_PORT
)。
-
防火墙冲突:
- 确保防火墙已开放新端口(如
8080
)。 - 如果使用路由器,需检查是否限制了设备间的通信。
- 确保防火墙已开放新端口(如
-
跨域问题(CORS):
- 如果使用 Web 界面(如 Open WebUI),需设置
OLLAMA_ORIGINS=*
以允许任意来源访问:export OLLAMA_ORIGINS="*"
- 如果使用 Web 界面(如 Open WebUI),需设置
-
安全建议:
- 避免开放敏感端口到公网(如
80
或443
)。 - 使用内网穿透工具(如 Cpolar)实现安全的外网访问。
- 避免开放敏感端口到公网(如
如果需要进一步优化或扩展功能,可以参考 Ollama 的官方文档或社区资源。祝你探索 AI 世界愉快! 🚀