当前位置: 首页 > news >正文

广州建设工程造价管理站橙色网站欣赏

广州建设工程造价管理站,橙色网站欣赏,中天建设集团有限公司电话号码,wordpress nginx 伪静态规则前文,我们已经在本地基于Ollama部署好了DeepSeek大模型,并且已经告知过如何查看本地的API。为了避免网络安全问题,我们希望已经在本地调优的模型,能够嵌入到在本地的其他应用程序中,发挥本地DeepSeek的作用。因此需要知…

        前文,我们已经在本地基于Ollama部署好了DeepSeek大模型,并且已经告知过如何查看本地的API。为了避免网络安全问题,我们希望已经在本地调优的模型,能够嵌入到在本地的其他应用程序中,发挥本地DeepSeek的作用。因此需要知道本地DeepSeek的API结构,知道什么接口地址要输入什么参数,以及如何使用。

       前置文章:

        (1)个人windows电脑上安装DeepSeek大模型:https://lzm07.blog.csdn.net/article/details/145491693

        (2)查看和使用本地Windows系统下通过Ollama部署的DeepSeek模型的API:https://lzm07.blog.csdn.net/article/details/145601121

        先了解接口的详细内容,再postman对接口进行验证。

一、核心接口文档说明

1. ‌模型列表查询

‌接口地址‌:GET http://localhost:11434/api/tags

‌功能‌:获取本地已部署的模型列表,包含模型名称、版本及大小信息

‌响应示例‌(json):

{"models": [{"name": "deepseek-r1:8b", "modified_at": "2025-03-20T12:00:00Z", "size": 8.2e9}]}

2. ‌文本生成

‌接口地址‌:POST http://localhost:11434/api/generate

‌功能:根据输入提示生成文本内容,支持代码、文章、问答等场景‌。

请求参数(json)‌:

{"model": "deepseek-r1:8b",  // 必填,需与本地模型名称一致‌:ml-citation{ref="2,4" data="citationList"}"prompt": "输入问题",        // 必填"stream": false,           // 是否流式输出(默认true)‌:ml-citation{ref="4,7" data="citationList"}"temperature": 0.7,        // 随机性控制(0-1,默认0.8)‌:ml-citation{ref="4,7" data="citationList"}"max_tokens": 1000         // 最大输出长度‌:ml-citation{ref="4,7" data="citationList"}}

‌响应示例‌(json):

{"response": "生成内容","created_at": "2025-03-21T10:00:00Z","done": true}

3. ‌对话交互

‌接口地址‌:POST http://localhost:11434/api/chat

‌‌功能‌: 支持多轮对话交互,维护上下文语义

请求参数(json)‌:

{"model": "deepseek-r1:8b","messages": [{"role": "user", "content": "你好"},{"role": "assistant", "content": "有什么可以帮助您?"}],"options": {"temperature": 0.7,      // 可选参数‌:ml-citation{ref="4,7" data="citationList"}"num_ctx": 4096          // 上下文窗口大小‌:ml-citation{ref="7" data="citationList"}}}

‌响应示例(json)‌:

{"message": {"role": "assistant", "content": "回复内容"},"done": true}

二、模型管理接口

4. ‌拉取模型

‌接口地址‌:POST http://localhost:11434/api/pull

‌功能‌: 从仓库下载指定模型到本地

请求参数(json)‌:

{"name": "deepseek-r1:14b",  // 需与模型仓库名称一致‌:ml-citation{ref="5,8" data="citationList"}"stream": false             // 是否显示下载进度流‌:ml-citation{ref="5,8" data="citationList"}}

‌响应示例‌(json):

{"status": "success", "digest": "sha256:..."}

5. ‌创建自定义模型

‌接口地址‌:POST http://localhost:11434/api/create

请求参数‌(json):

{"name": "custom-model",    // 自定义模型名称"modelfile": "FROM deepseek-r1:8b\nPARAMETER temperature 0.9"  // 模型配置文件‌:ml-citation{ref="5,8" data="citationList"}}

6. ‌删除模型

‌接口地址‌:DELETE http://localhost:11434/api/delete

‌功能‌: 移除本地已部署的模型

请求参数‌(json):

{"name": "deepseek-r1:1.5b"}  // 需删除的模型名称‌:ml-citation{ref="6,8" data="citationList"}

三、高级接口

7. ‌查看模型信息

‌接口地址‌:GET http://localhost:11434/api/show

‌请求参数‌(json):

{"name": "deepseek-r1:8b"}    // 模型名称‌:ml-citation{ref="8" data="citationList"}

‌响应示例(json)‌:

{"license": "Apache-2.0","modelfile": "...","parameters": "temperature 0.8"}

‌8. 流式响应处理

‌说明‌: 在请求(文本生成/对话)中设置 "stream": true 时,响应将以数据流形式分块返回‌。

‌‌数据格式‌: 分块返回SSE(Server-Sent Events)格式数据。

示例‌(使用 curl)(CMD中执行):

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:8b","prompt": "写一首关于春天的诗","stream": true}'

四、Postman下载安装

        了解了以上接口之后,我们要先对接口进行验证,看接口的地址、类型、以及请求的参数是否都正常,便于之后在其他程序中应用这些接口。当前我们使用来postman验证接口。

        先下载和安装postman程序。

1. 下载postman

       官方网址:https://www.postman.com/downloads/

2. postman安装

       点击Postman-win64-Setup.exe。不用登录,点击下方的“Continue without an account”。

       不用登录,点击“Open Lightweight API Client”。

       进入postman主界面

五、Postman测试说明

‌1.配置请求头

设置 Content-Type: application/json‌。

2.发送请求示例(对话接口)

‌步骤‌:

(1)选择 POST 方法,输入 http://localhost:11434/api/chat

(2)在 ‌Body‌ 标签中选择 ‌raw‌ 格式,粘贴以下内容(json):

       模型名称一定要写对,根据自己本地安装好的模型修改,如我们前面已经在本地部署好了deepseek模型,并将模型命名为my_model_name ,则此时,应该填写:"model": "my_model_name"

{"model": "deepseek-r1:8b","messages": [{"role": "user", "content": "解释机器学习中的过拟合"}]}

(3)点击 ‌Send‌ 获取响应‌。

‌3.流式响应处理

若设置 "stream": true,需在Postman中启用 ‌Stream‌ 模式,逐块接收数据‌。

(1)在 ‌Body‌ 标签选择 ‌raw‌ → ‌JSON‌,输入以下内容(json):

{"model": "deepseek-chat", "messages": [{"role": "user", "content": "你的问题"}], "stream": true  // 关键参数,启用流式输出‌:ml-citation{ref="7,8" data="citationList"}}

(2)关闭 SSL 验证(可选)‌

在 Postman 设置(Settings → General)中关闭 ‌SSL certificate verification‌,避免证书错误中断流式传输‌。

六、注意事项

‌       (1)模型名称匹配‌:确保接口中的 model 参数与通过 ollama list 查看到的名称完全一致‌。

‌       (2)显存限制‌:高参数版本(如14B)需至少32GB内存,低配置设备建议使用1.5B或8B版本‌。

‌       (3)端口占用‌:若端口11434被占用,可通过 OLLAMA_HOST 环境变量修改服务端口‌。

‌       (4)跨域问题‌: 若通过 Swagger 调用,需在Ollama服务端配置CORS头(bash):

# 启动服务时添加参数OLLAMA_ORIGINS=* ollama serve

通过以上接口,可全面管理本地部署的DeepSeek模型并实现交互式调用。

http://www.dtcms.com/a/435225.html

相关文章:

  • ipv6之6to4配置案例
  • 太仓有专门做网站的地方吗沧州企业网站专业定制
  • gRPC从0到1系列【14】
  • JVM的内存分配策略有哪些?
  • 卡特兰数【模板】(四个公式模板)
  • Process Monitor 学习笔记(5.5):保存/打开追踪记录——复盘、复现与分享的正确姿势
  • 【机器学习宝藏】深入解析经典人脸识别数据集:Olivetti Faces
  • 【C++】深入理解红黑树:概念、性质和实现
  • 制作卖东西网站玩具网站 下载
  • 网站建设培训课程wordpress描述插件
  • php网站超市源码下载十大永久免费crm
  • 网站色彩代码carousel wordpress
  • 帮别人做网站一般app开发费用多少
  • 上海网站建设服务市价编程做网站容易还是做软件
  • Go 语言流程控制详解:if / switch / for
  • 企业网站栏目设计h5手机网站实例
  • 操作系统应用开发(十三)RustDesk文件服务搭建——东方仙盟筑基期
  • 莱州网站建设服务程序开发的步骤是什么
  • 网站域名多少钱一年杭州seo公司排名
  • 武昌网站制作公司深圳vi设计公司推荐
  • AI驱动的软件质量保障:未来已来
  • Lama Cleaner图片去水印工具最新版IOPaint-1.5.3使用教程-优雅草卓伊凡
  • Spring Boot 配置属性绑定
  • tauri中的wry和tao是干啥的?都是什么作用
  • 个人网站建设发布信息wordpress移动端悬浮导航代码
  • 神经网络评估指标:准确率、召回率等详解(代码验证)
  • linux免密切换
  • 藏语自然语言处理入门 - 2 分词
  • 2020年美国新冠肺炎疫情数据分析与可视化
  • 天津重型网站建设推荐影响网站alexa排名的主要因素有