DMXAPI |使用1个Key接入主流大模型
使用 DMXAPI 快速调用全球各大 LLM 模型(无需科学上网)
✨ 简介
在进行 LLM API 测试和开发时,我们经常需要调用不同厂商、不同规模的模型。然而很多情况下,由于网络环境、API 接入流程等限制,调用这些模型会比较麻烦,甚至需要科学上网。
最近发现了一个非常方便的解决方案:
DMXAPI
只需要申请一个 API Key,就可以直接调用全球多个 AI 厂商的最新模型,无需额外的网络配置,开箱即用。目前已支持 503 款模型,并且兼容 OpenAI 官方库 SDK 调用方式。
🚀 实践示例
下面用 Python requests
进行调用演示:
import requests# API地址
url = "https://www.dmxapi.cn/v1/chat/completions"# 请求头 - 填入你自己的 API Key
headers = {"Authorization": "Bearer sk-xxx", # 使用你的 API Key"Content-Type": "application/json"
}# 请求体
data = {"model": "Qwen/Qwen2.5-Coder-7B-Instruct", # 模型名称"messages": [{"role": "user", "content": "你怎样理解量子通信"} # 对话内容],"temperature": 0.7,"max_tokens": 1000
}# 请求并获取响应
response = requests.post(url, json=data, headers=headers)
result = response.json()# 输出回答
print(result["choices"][0]["message"]["content"])
Tips: 模型名称可以在 DMXAPI 官网查到,直接换成你想要测试的模型即可。
🌐 在代理环境下使用
有些运行环境(如公司网络、服务器等)可能需要通过代理访问外部 API。这时只需要在请求中添加 proxies
参数即可:
import requests# 配置代理
proxies = {"http": "http://proxy-address:80","https": "http://proxy-address:80",
}url = "https://www.dmxapi.cn/v1/chat/completions"headers = {"Authorization": "Bearer sk-xxx", # 使用你的 API Key"Content-Type": "application/json"
}data = {"model": "Qwen/Qwen2.5-Coder-7B-Instruct","messages": [{"role": "user", "content": "你怎样理解量子通信"}],"temperature": 0.7,"max_tokens": 1000
}response = requests.post(url, json=data, headers=headers, proxies=proxies)
result = response.json()print(result["choices"][0]["message"]["content"])
📌 总结
通过 DMXAPI:
- ✅ 无需科学上网,直接调用全球各家 AI 模型
- ✅ 目前已支持 503 款模型,持续更新
- ✅ 用法与 OpenAI API 几乎完全一致,快速迁移项目
- ✅ 简单方便,支持 Python、JavaScript 等多种语言
对于经常做 AI模型对比测试 或 多厂商模型接入 的开发者来说,这个工具非常值得一试。