当前位置: 首页 > news >正文

TFChat:腾讯大模型知识引擎(DeepSeek R1)+飞书机器人实现AI智能助手

效果

在这里插入图片描述

TFChat项目地址

https://github.com/fish2018/TFChat

腾讯大模型知识引擎用的是DeepSeek R1,项目为sanic和redis实现,利用httpx异步处理流式响应,同时使用buffer来避免频繁调用飞书接口更新卡片的网络耗时。为了进一步减少网络IO消耗,首次调用飞书相关接口会从redis读取token,后续直接从TokenManager对象属性获取,只有token失效时间小于60s时才会重新调用飞书接口获取。

实现思路

1.创建好腾讯大模型知识引擎应用和飞书应用并启用机器人能力,配置事件订阅
2.用户发送消息给机器人后,会post数据给我们的webhook接口
3.webhook接收到数据后解析出用户的open_id和发送给机器人的content
4.初始化消息卡片实例
5.发送消息卡片给该用户
6.调用腾讯大模型知识引擎的HTTP SSE接口,提交用户发送给机器人的content
7.接收HTTP SSE数据,调用飞书接口流式更新文本

参考资料

腾讯大模型知识引擎

创建应用

参考官方文档操作即可:
https://cloud.tencent.com/document/product/1759/104201

腾讯大模型知识引擎>应用接口文档>对话端接口文档(HTTP SSE)

https://cloud.tencent.com/document/product/1759/105561

飞书机器人

创建应用

https://open.feishu.cn/document/home/develop-a-gadget-in-5-minutes/create-an-app

启用机器人能力

https://open.feishu.cn/document/faq/trouble-shooting/how-to-enable-bot-ability

飞书卡片流式更新 OpenAPI 调用指南

https://open.feishu.cn/document/uAjLw4CM/ukzMukzMukzM/feishu-cards/streaming-updates-openapi-overview

相关文章:

  • Java中的缓存技术:Guava Cache vs Caffeine vs Redis
  • w803|联盛德|WM IoT SDK2.X测试|window11|VSCODE|(4):IDE配置
  • Spark内存迭代计算
  • .Net 9下使用Tensorflow.net---DNN_Eager
  • RabbitMQ死信队列
  • 「云原生」「云原生应用的构建与部署」
  • 阻抗和电阻
  • Linux提权之docker提权(十三) 链接第八篇完整版
  • 如何在docker上部署java服务
  • 学习路之PHP --TP6异步执行功能 (无需安装任何框架)
  • Linux 日志系统·
  • 蓝桥杯手把手教你备战(C/C++ B组)(最全面!最贴心!适合小白!)
  • Linux提权之详细总结版(完结)
  • (八)趣学设计模式 之 装饰器模式!
  • 【阮一峰】19.类型工具
  • 用AI写游戏3——用java实现坦克大战游戏1
  • Springboot使用Milvus的基本操作
  • Linux红帽:RHCSA认证知识讲解(三)Linux基础指令与Vim编辑器的使用
  • css实现左右切换平滑效果
  • Gurobi 并行计算的一些问题
  • 网站接入服务器商查询/免费seo搜索优化
  • 工信部会抽查网站么/百度收录入口在哪里查询
  • 行业b2b网站建设/培训网站制作
  • 动漫人物做羞羞事的网站/泉州百度搜索推广
  • 高端网站设计元素图片/安仁网络推广
  • 网站建设的总结/友情链接模板