Ollama Cloud 线上模型免费调用教程(2025 最新版)
《Ollama Cloud 线上模型调用教程(2025 最新版)》,一步到位从原理到实战。
🧠 Ollama Cloud 线上模型调用教程(2025 最新版)
一、Ollama Cloud 是什么
Ollama 最早是一个本地大模型运行平台(ollama pull → 本地推理),
现在(从 2025 年开始)推出了 Cloud 模型服务:
-
无需下载模型
-
不占用显存
-
提供 OpenAI 兼容 API(即
/v1/chat/completions) -
可以直接用 Python、curl、或任何支持 OpenAI SDK 的库调用
换句话说,现在 Ollama 既能“本地离线用”,又能“云端在线调”。
二、获取 Cloud API Key
-
打开官网 https://ollama.com
-
登录你的账户(GitHub 登录最方便)
-
点击右上角头像 → Settings → API Keys
-
点击 Create new key
-
复制生成的 key(例如:
07af771e0730471ea9e285804407350a.25Iu9WgeGG_Lx9_iJ0tBRQrS注意:只显示一次,要自己保存好)
三、查看当前可用的云模型
运行以下命令:
curl -H "Authorization: Bearer YOUR_API_KEY" https://ollama.com/api/tags
返回的 JSON 中会包含模型名,比如:
{"models": [{"name": "gpt-oss:120b"},{"name": "qwen3-coder:480b"},{"name": "deepseek-v3.1:671b"},{"name": "glm-4.6"}]
}
这些 name 就是你可以直接在线调用的模型。
推荐常用模型:
| 模型名 | 说明 |
|---|---|
gpt-oss:20b | 通用快速模型 |
gpt-oss:120b | 高质量模型 |
qwen3-coder:480b | 强代码能力(推荐做代码生成与安全测试) |
deepseek-v3.1:671b | 高级通用大模型 |
四、使用 cURL 调用(最简示例)
curl https://ollama.com/v1/chat/completions \-H "Authorization: Bearer YOUR_API_KEY" \-H "Content-Type: application/json" \-d '{"model": "qwen3-coder:480b","messages": [{"role": "user", "content": "写一个C函数判断一个整数是否为质数"}]}'
运行后会返回一个 JSON 响应,类似:
{"id": "chatcmpl-abc123","object": "chat.completion","choices": [{"message": {"role": "assistant","content": "int is_prime(int n) { ... }"}}]
}
五、Python 方式调用(OpenAI SDK 通用)
Ollama Cloud 直接兼容 OpenAI 接口,你可以使用任意 OpenAI SDK。
示例代码(Python):
from openai import OpenAIclient = OpenAI(api_key="YOUR_API_KEY",base_url="https://ollama.com/v1"
)response = client.chat.completions.create(model="qwen3-coder:480b",messages=[{"role": "user", "content": "用Python写一个快速排序算法"}]
)print(response.choices[0].message.content)
输出示例:
def quick_sort(arr):if len(arr) <= 1:return arrpivot = arr[len(arr)//2]left = [x for x in arr if x < pivot]middle = [x for x in arr if x == pivot]right = [x for x in arr if x > pivot]return quick_sort(left) + middle + quick_sort(right)
六、在项目(如 CodeGuarder)中调用
假设你要让脚本调用 Ollama Cloud 模型(不再本地跑),
只需要传入以下参数:
./scripts/run_std_codeguarder.sh "qwen3-coder:480b" "YOUR_API_KEY" "https://ollama.com/v1/chat/completions"
或写在环境变量中:
export OLLAMA_API_KEY="YOUR_API_KEY"
./scripts/run_std_codeguarder.sh "qwen3-coder:480b" "$OLLAMA_API_KEY" "https://ollama.com/v1/chat/completions"
脚本会自动通过 OpenAI 兼容接口调用 Ollama Cloud 完成代码生成与安全评测。
七、常见问题(FAQ)
| 问题 | 原因 | 解决 |
|---|---|---|
401 Unauthorized | Key 没传进请求头 | 检查是否加了 Authorization: Bearer |
model not found | 模型名拼错 | 用 /api/tags 查可用模型名 |
curl: (6) DNS 错误 | 网络问题 | 确保能访问 ollama.com |
| 响应慢 | 模型大、队列中 | 换成 gpt-oss:20b 或 glm-4.6 试试 |
| Key 泄漏 | ⚠️ 立即删除重建 | 登录 Ollama → API Keys → Delete Key |
八、进阶:流式输出(streaming)
Ollama Cloud 也支持流式输出(和 OpenAI 一样):
with client.chat.completions.stream(model="qwen3-coder:480b",messages=[{"role": "user", "content": "Explain RSA encryption"}],
) as stream:for event in stream:if event.type == "message":print(event.data["content"], end="", flush=True)
九、优缺点总结
| 模式 | 优点 | 缺点 |
|---|---|---|
| 本地 Ollama | 离线、免费、隐私 | 占用显存、下载慢 |
| Ollama Cloud | 即开即用、无显存占用、接口统一 | 需网络连接、有请求速率限制 |
✅ 十、一键验证脚本(推荐)
你可以新建一个文件 test_ollama_cloud.sh:
#!/bin/bash
KEY="YOUR_API_KEY"curl https://ollama.com/v1/chat/completions \-H "Authorization: Bearer $KEY" \-H "Content-Type: application/json" \-d '{"model": "qwen3-coder:480b","messages": [{"role": "user", "content": "用C语言写一个冒泡排序"}]}' | jq '.choices[0].message.content'
执行:
bash test_ollama_cloud.sh
若能输出排序代码,就说明你的 Ollama Cloud API 可用 🎯。
