当前位置: 首页 > news >正文

AI.工作助手.工作提效率.AI应用开发平台

第一部分  Dify 创建AI应用

https://docs.dify.ai/zh-hans/introduction

Dify 是一款开源的大语言模型(LLM)应用开发平台。

它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的工作流,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

为什么使用 Dify?你或许可以把 LangChain 这类的开发库(Library)想象为有着锤子、钉子的工具箱。与之相比,Dify 提供了更接近生产需要的完整方案,Dify 好比是一套脚手架,并且经过了精良的工程设计和软件测试。重要的是,Dify 是开源的,它由一个专业的全职团队和社区共同打造。你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力,在灵活和安全的基础上,同时保持对数据的完全控制。

​Dify 能做什么?

Dify 一词源自 Define + Modify,意指定义并且持续的改进你的 AI 应用,它是为你而做的(Do it for you)。

  • 创业,快速的将你的 AI 应用创意变成现实,无论成功和失败都需要加速。在真实世界,已经有几十个团队通过 Dify 构建 MVP(最小可用产品)获得投资,或通过 POC(概念验证)赢得了客户的订单。
  • 将 LLM 集成至已有业务,通过引入 LLM 增强现有应用的能力,接入 Dify 的 RESTful API 从而实现 Prompt 与业务代码的解耦,在 Dify 的管理界面是跟踪数据、成本和用量,持续改进应用效果。
  • 作为企业级 LLM 基础设施,一些银行和大型互联网公司正在将 Dify 部署为企业内的 LLM 网关,加速 GenAI 技术在企业内的推广,并实现中心化的监管。
  • 探索 LLM 的能力边界,即使你是一个技术爱好者,通过 Dify 也可以轻松的实践 Prompt 工程和 Agent 技术,在 GPTs 推出以前就已经有超过 60,000 开发者在 Dify 上创建了自己的第一个应用。

1. 创建应用

Dify 上可以创建 5 种不同的应用类型,分别是聊天助手、文本生成应用、Agent、Chatflow 和 Workflow。创建应用时,你需要给应用起一个名字、选择合适的图标,或者上传喜爱的图片用作图标、使用一段清晰的文字描述此应用的用途,以便后续应用在团队内的使用。

在 Dify 中,一个“应用”是指基于 GPT 等大语言模型构建的实际场景应用。通过创建应用,你可以将智能 AI 技术应用于特定的需求。它既包含了开发 AI 应用的工程范式,也包含了具体的交付物。简而言之,一个应用为开发者交付了:

  • 封装友好的 API,可由后端或前端应用直接调用,通过 Token 鉴权
  • 开箱即用、美观且托管的 WebApp,你可以 WebApp 的模板进行二次开发
  • 一套包含提示词工程、上下文管理、日志分析和标注的易用界面

你可以任选其中之一全部,来支撑你的 AI 应用开发。

应用类型Dify 中提供了五种应用类型:

  • 聊天助手:基于 LLM 构建对话式交互的助手
  • 文本生成应用:面向文本生成类任务的助手,例如撰写故事、文本分类、翻译等
  • Agent:能够分解任务、推理思考、调用工具的对话式智能助手
  • 对话流:适用于定义等复杂流程的多轮对话场景,具有记忆功能的应用编排方式
  • 工作流:适用于自动化、批处理等单轮生成类任务的场景的应用编排方式

文本生成应用与聊天助手的区别见下表:

文本生成应用聊天助手
WebApp 界面表单+结果式聊天式
WebAPI 端点completion-messageschat-messages
交互方式一问一答多轮对话
流式结果返回支持支持
上下文保存当次持续
用户输入表单支持支持
知识库与插件支持支持
AI 开场白不支持支持
情景举例翻译、判断、索引聊天

2. Dify构建企业级Agent应用--助手示例

智能助手(Agent Assistant),利用大语言模型的推理能力,能够自主对复杂的人类任务进行目标规划、任务拆解、工具调用、过程迭代,并在没有人类干预的情况下完成任务。

在全新的 Dify 工作室中,你也可以从零编排一个专属于你自己的智能助手,帮助你完成财务报表分析、撰写报告、Logo 设计、旅程规划等任务。

选择智能助手的推理模型,智能助手的任务完成能力取决于模型推理能力,我们建议在使用智能助手时选择推理能力更强的模型系列如 gpt-4 以获得更稳定的任务完成效果。

对话型应用可以用在客户服务、在线教育、医疗保健、金融服务等领域。这些应用可以帮助组织提高工作效率、减少人工成本和提供更好的用户体验。如何编排对话型应用的编排支持:对话前提示词,变量,上下文,开场白和下一步问题建议。

3. 工作流

工作流通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。Dify 工作流分为两种类型:

  • Chatflow:面向对话类情景,包括客户服务、语义搜索、以及其他需要在构建响应时进行多步逻辑的对话式应用程序。
  • Workflow:面向自动化和批处理情景,适合高质量翻译、数据分析、内容生成、电子邮件自动化等应用程序。

为解决自然语言输入中用户意图识别的复杂性,Chatflow 提供了问题理解类节点。相对于 Workflow 增加了 Chatbot 特性的支持,如:对话历史(Memory)、标注回复、Answer 节点等。为解决自动化和批处理情景中复杂业务逻辑,工作流提供了丰富的逻辑节点,如代码节点、IF/ELSE 节点、模板转换、迭代节点等,除此之外也将提供定时和事件触发的能力,方便构建自动化流程。

常见案例

  • 客户服务

通过将 LLM 集成到你的客户服务系统中,你可以自动化回答常见问题,减轻支持团队的工作负担。 LLM 可以理解客户查询的上下文和意图,并实时生成有帮助且准确的回答。

  • 内容生成

无论你需要创建博客文章、产品描述还是营销材料,LLM 都可以通过生成高质量内容来帮助你。只需提供一个大纲或主题,LLM将利用其广泛的知识库来制作引人入胜、信息丰富且结构良好的内容。

  • 任务自动化

可以与各种任务管理系统集成,如 Trello、Slack、Lark、以自动化项目和任务管理。通过使用自然语言处理,LLM 可以理解和解释用户输入,创建任务,更新状态和分配优先级,无需手动干预。

  • 数据分析和报告

可以用于分析大型知识库并生成报告或摘要。通过提供相关信息给 LLM,它可以识别趋势、模式和洞察力,将原始数据转化为可操作的智能。对于希望做出数据驱动决策的企业来说,这尤其有价值。

  • 邮件自动化处理

LLM 可以用于起草电子邮件、社交媒体更新和其他形式的沟通。通过提供简要的大纲或关键要点,LLM 可以生成一个结构良好、连贯且与上下文相关的信息。这样可以节省大量时间,并确保你的回复清晰和专业。

应用类型差异

  1. End 节点属于 Workflow 的结束节点,仅可在流程结束时选择。
  2. Answer 节点属于 Chatflow ,用于流式输出文本内容,并支持在流程中间步骤输出。
  3. Chatflow 内置聊天记忆(Memory),用于存储和传递多轮对话的历史消息,可在 LLM 、问题分类等节点内开启,Workflow 无 Memory 相关配置,无法开启。
  4. Chatflow 的开始节点内置变量包括:sys.querysys.filessys.conversation_idsys.user_id。Workflow 的开始节点内置变量包括:sys.filessys.user_id ,详见变量。

https://docs.dify.ai/zh-hans/guides/workflow/node/template

Agent 节点是 Dify Chatflow/Workflow 中用于实现自主工具调用的组件。它通过集成不同的 Agent 推理策略,使大语言模型能够在运行时动态选择并执行工具,从而实现多步推理。从下拉菜单选择所需的 Agent 推理策略。Dify 内置了 Function Calling 和 ReAct 两种策略,可在 Marketplace → Agent 策略分类中安装使用。Function Calling 通过将用户指令映射到预定义函数或工具,LLM 先识别用户意图,再决定调用哪个函数并提取所需参数。它的核心是调用外部函数或工具,属于一种明确的工具调用机制。优点:

  • 精确: 对于明确的任务,可以直接调用相应的工具,无需复杂的推理过程。
  • 易于集成外部功能: 可以将各种外部 API 或工具封装成函数供模型调用。
  • 结构化输出: 模型输出的是结构化的函数调用信息,方便下游节点处理。

ReAct 策略使 Agent 交替进行思考和行动:LLM 首先思考当前状态和目标,然后选择并调用合适的工具,工具的输出结果又将引导 LLM 进行下一步的思考和行动,如此循环,直到问题解决。优点:

  • 有效利用外部信息: 能够有效地利用外部工具获取信息,解决仅靠模型自身无法完成的任务。
  • 可解释性较好: 思考和行动的过程是交织的,可以一定程度上追踪 Agent 的推理路径。
  • 适用范围广: 适用于需要外部知识或需要执行特定操作的场景,例如问答、信息检索、任务执行等。

模版转换节点: 允许借助 Jinja2 的 Python 模板语言灵活地进行数据转换、文本处理等。

什么是 Jinja?

Jinja 是一个快速、表达力强、可扩展的模板引擎。

场景模板节点允许你借助 Jinja2 这一强大的 Python 模板语言,在工作流内实现轻量、灵活的数据转换,适用于文本处理、JSON 转换等情景。例如灵活地格式化并合并来自前面步骤的变量,创建出单一的文本输出。这非常适合于将多个数据源的信息汇总成一个特定格式,满足后续步骤的需求。

快捷键Chatflow / Workflow 应用编排页支持以下快捷键,帮助你提升编排节点的效率。
WindowsmacOS说明
Ctrl + CCommand + C复制节点
Ctrl + VCommand + V粘贴节点
Ctrl + DCommand + D复制并新建节点
Ctrl + OCommand + O整理节点
Ctrl + ZCommand + Z撤销
Ctrl + YCommand + Y重做
Ctrl + Shift + ZCommand + Shift + Z重做
Ctrl + 1Command + 1画布适合视图
Ctrl + (-)Command + (-)画布缩小
Ctrl + (=)Command + (=)画布放大
Shift + 1Shift + 1将画布视图重置为 100%
Shift + 5Shift + 5将画布缩放至 50%
HH画布切换至手动模式
VV画布切换至指针模式
Delete/BackspaceDelete/Backspace删除选定节点
Alt + ROption + R工作流开始运行
编排节点

Chatflow 和 Workflow 类型应用内的节点均可以通过可视化拖拉拽的形式进行编排,支持串行并行两种编排设计模式。

对话型应用支持发布为:

  • 直接运行
  • 嵌入网站
  • 访问 API

工作流应用支持发布为:

  • 直接运行
  • 批处理
  • 访问 API
  • 发布为工具

结构化输出

简介作为 LLM 工具链平台,Dify 支持 JSON 结构化输出功能。结构化输出功能可以确保 LLM 返回的数据格式可用、稳定、可预测,减少错误处理和格式转换的工作。

如何实现结构化输出?在 Dify 的操作界面中,可以通过以下两种方式实现结构化输出:

  • 方式一:直接定义工具参数
  • 方式二:使用 LLM 节点中的 JSON Schema 编辑器

4. 知识库

知识库功能将 RAG 管线上的各环节可视化,提供了一套简单易用的用户界面来方便应用构建者管理个人或者团队的知识库,并能够快速集成至 AI 应用中。开发者可以将企业内部文档、FAQ、规范信息等内容上传至知识库进行结构化处理,供后续 LLM 查询。相比于 AI 大模型内置的静态预训练数据,知识库中的内容能够实时更新,确保 LLM 可以访问到最新的信息,避免因信息过时或遗漏而产生的问题。LLM 接收到用户的问题后,将首先基于关键词在知识库内检索内容。知识库将根据关键词,召回相关度排名较高的内容区块,向 LLM 提供关键上下文以辅助其生成更加精准的回答。开发者可以通过此方式确保 LLM 不仅仅依赖于训练数据中的知识,还能够处理来自实时文档和数据库的动态数据,从而提高回答的准确性和相关性。核心优势:• 实时性:知识库中的数据可随时更新,确保模型获得最新的上下文。• 精准性:通过检索相关文档,LLM 能够基于实际内容生成高质量的回答,减少幻觉现象。• 灵活性:开发者可自定义知识库内容,根据实际需求调整知识的覆盖范围。

准备文本文件,例如:

  • 长文本内容(TXT、Markdown、DOCX、HTML、JSON 甚至是 PDF)
  • 结构化数据(CSV、Excel 等)
  • 在线数据源(网页爬虫、Notion 等)

5. 工具

可以扩展 LLM 的能力,比如联网搜索、科学计算或绘制图片,赋予并增强了 LLM 连接外部世界的能力。Dify 提供了两种工具类型:第一方工具自定义工具。你可以直接使用 Dify 生态提供的第一方内置工具,或者轻松导入自定义的 API 工具(目前支持 OpenAPI / Swagger 和 OpenAI Plugin 规范)。

工具的作用:

  1. 工具使用户可以在 Dify 上创建更强大的 AI 应用,如你可以为智能助理型应用(Agent)编排合适的工具,它可以通过任务推理、步骤拆解、调用工具完成复杂任务。
  2. 方便将你的应用与其他系统或服务连接,与外部环境交互,如代码执行、对专属信息源的访问等。

Dify 目前已支持:

工具工具描述
谷歌搜索用于执行 Google SERP 搜索并提取片段和网页的工具。输入应该是一个搜索查询
维基百科用于执行维基百科搜索并提取片段和网页的工具。
DALL-E 绘画用于通过自然语言输入生成高质量图片
网页抓取用于爬取网页数据的工具
WolframAlpha一个强大的计算知识引擎,能根据问题直接给出标准化答案,同时具有强大的数学计算功能
图表生成用于生成可视化图表的工具,你可以通过它来生成柱状图、折线图、饼图等各类图表
当前时间用于查询当前时间的工具
雅虎财经获取并整理出最新的新闻、股票报价等一切你想要的财经信息。
Stable Diffusion一个可以在本地部署的图片生成的工具,你可以使用 stable-diffusion-webui 来部署它
Vectorizer一个将 PNG 和 JPG 图像快速轻松地转换为 SVG 矢量图的工具。
YouTube一个用于获取油管频道视频统计数据的工具

还可以集成 MCP 工具

你可以在 Dify 的 Agent 和 Workflow 应用中,直接集成来自外部 MCP 服务器的工具。除了使用 Dify 内置插件外,还可以接入 MCP 生态系统中的第三方服务,持续扩展你的应用功能。

添加 MCP 服务器(HTTP),即可集成新的外部工具服务。需要填写如下信息:

  • 服务器 URL:MCP 服务器的 HTTP 接口地址,例如集成 Notion 时为 https://api.notion.com/mcp
  • 名称与图标:自定义服务器名称,建议选择能清晰体现工具用途的名字。Dify 会自动尝试获取服务器域名的图标,你也可以手动上传。
  • 服务器标识符:Dify 用于区分服务器的唯一 ID。规则:小写字母、数字、下划线或连字符,最多 24 个字符。

6. 发布

发布为公开web站点使用 Dify 创建 AI 应用的一个好处在于,你可以在几分钟内就发布一个可供用户在互联网上公开访问的 Web 应用,该应用将根据你的 Prompt 和编排设置进行工作。
  • 如果你使用的是自部署的开源版,该应用将运行在你的服务器上
  • 如果你使用的是云服务,该应用将托管至网址 https://udify.app/

发布 AI 站点在应用监测页中,你可以找到 WebApp 的管理卡片。打开访问开关后,你可以得到一个能够在互联网上公开分享的网址。

为mcp服务器Dify 现已支持将你的应用部署为 MCP(模型上下文协议,一种让 AI 工具之间相互通信的标准协议)服务器。通过这一功能,你可以轻松将 Dify 应用集成到如 Claude Desktop 这样的 AI 助手,或像 Cursor 这样的开发环境中,让这些工具能够直接调用你的 Dify 应用,实现无缝扩展。

如果你希望在 Dify 工作流或智能体中使用 MCP 工具,请参考相关指南。

配置 Dify 应用为 MCP 服务器在 Dify 应用的配置页面中,你可以找到 MCP 服务器的相关配置选项。该功能默认关闭,开启后,Dify 将为当前应用自动生成唯一的 MCP 服务器地址。此地址将作为外部工具访问你应用的专用接口。

嵌入网站可以使用 3 种不同的方式将你的 AI 应用嵌入网站,分别为 <iframe> 标签方式,<script> 标签方式,和安装 Dify Chrome 浏览器扩展方式。点击 WebApp 卡片上的嵌入按钮,复制嵌入代码,粘贴到你网站的目标位置。
基于APIs开发
Dify 基于“后端即服务”理念为所有应用提供了 API,为 AI 应用开发者带来了诸多便利。通过这一理念,开发者可以直接在前端应用中获取大型语言模型的强大能力,而无需关注复杂的后端架构和部署过程。

使用 Dify API 的好处
  • 让前端应用直接安全地调用 LLM 能力,省去后端服务的开发过程
  • 在可视化的界面中设计应用,并在所有客户端中实时生效
  • 对 LLM 供应商的基础能力进行了良好封装
  • 随时切换 LLM 供应商,并对 LLM 的密钥进行集中管理
  • 在可视化的界面中运营你的应用,例如分析日志、标注及观察用户活跃
  • 持续为应用提供更多工具能力、插件能力和知识库

如何使用选择一个应用,在应用(Apps)左侧导航中可以找到访问 API(API Access)。在该页面中你可以查看 Dify 提供的 API 文档,并管理可访问 API 的凭据。

基于前端模版再开发如果开发者是从头开发新产品或者在产品原型设计阶段,你可以使用 Dify 快速发布 AI 站点。与此同时,Dify 希望开发者能够充分自由的创造不同形式的前端应用,为此我们提供了:
  • SDK,用于在各种语言中快速接入 Dify API
  • WebApp Template,每种类型应用的 WebApp 开发脚手架
WebApp Template 是基于 MIT 协议开源的,你可以充分自由的修改并部署他们,以实现 Dify 的所有能力。或者作为你实现自己 App 的一份参考代码。你可以在 GitHub 中找到这些 Template:
  • 对话型应用
  • 文本生成型应用
使用 WebApp 模板最快的方法就是在 GitHub 中点击「使用这个模板」,它相当于 Fork 了一个新的仓库。随后你需要配置 Dify 的 App ID 和 API Key,

7. 标柱

日志(Logs)功能用以观察与标记 Dify 应用的工作表现,Dify 为应用的全部交互过程记录了日志,无论你是通过 WebApp 或 API 调用的,如果你是 Prompt 工程师或 LLM 运营人员,它将为你提供可视化的 LLM 应用运营体验。

标注回复功能通过人工编辑标注为应用提供了可定制的高质量问答回复能力。适用情景:

  • 特定领域的定制化回答: 在企业、政府等客服或知识库问答情景时,对于某些特定问题,服务提供方希望确保系统以明确的结果来回答问题,因此需要对在特定问题上定制化输出结果。比如定制某些问题的“标准答案”或某些问题“不可回答”。
  • POC 或 DEMO 产品快速调优: 在快速搭建原型产品,通过标注回复实现的定制化回答可以高效提升问答结果的生成预期,提升客户满意度。

标注回复功能相当于提供了另一套检索增强系统,可以跳过 LLM 的生成环节,规避 RAG 的生成幻觉问题。

8. 监测

你可以在 概览 内监控、跟踪应用程序在生产环境中的性能,在数据分析仪表盘内分析生产环境中应用的使用成本、延迟、用户反馈、性能等指标,并通过持续调试、迭代不断改进你的应用程序。

使用 Dify Workflow 编排 LLM 应用时,通常涵盖一系列节点和逻辑,具有较高的复杂性。将 Dify 与外部 Ops 工具集成,有助于打破编排应用时可能面临的 LLM “黑盒”问题。开发者只需要在平台上进行简单的配置,即可追踪应用生命周期中的数据和指标,轻松评估在 Dify 上创建的 LLM 应用质量、性能和成本。

9. 扩展

在创造 AI 应用的过程中,开发者面临着不断变化的业务需求和复杂的技术挑战。有效地利用扩展能力不仅可以提高应用的灵活性和功能性,还可以确保企业数据的安全性和合规性。Dify 提供了以下两种扩展方式:

  • API 扩展
  • 代码扩展

10. 协同

Dify 是一个多用户平台,工作空间(Workspace)是团队的基本协作单元。工作空间的成员可创建和编辑应用、知识库,也可以直接在发现区域直接使用团队其它成员创建的公共应用。

需要注意,目前 Dify 的云服务、社区版、企业版支持的登录方式有所区别,参见下表。

社区版云服务企业版
Email 登录支持-支持
使用 GitHub 账号登录-支持-
使用 Google 账号登录-支持-
SSO 登录--支持

第二部分  LLM大语言模型应用开发平台选型

Dify

开源,llm界全能百宝箱

功能全面,一站式解决 LLM 应用开发部署
开源灵活,社区支持,可深度定制
支持多种主流 LLM,兼容性强
可视化界面,即使是新手也能快速搭建起应用

缺点:
功能太多,对于只想做个小玩具的用户可能有点“重
在企业集成方面可能需要更多定制和技术支持o


适合人群: 有一定技术的开发者、追求专业、高效的团队、需要定制化 AI 解决方案的企业

Coze-字节跳动

#无代码 #智能体构建 #多平台发布
Coze(扣子)是字节跳动推出的专注于“人人都是 AI 开发者”的无代码/低代码 AI Bot 开发平台。内置上千款工具插件,强调快速构建和部署对话式 AI 应用,让你像搭积木一样简单地创建和发布 AI Agent。


优点:
上手门槛相对较低,真正做到无代码/低代码
内置丰富的插件和知识库功能
跨平台发布能力超强,覆盖国内外主流社交APP


缺点:
闭源,定制化程度可能受限
对于复杂企业级应用的深度集成能力有待观察
定价策略尚不完全明朗,未来商业模式存在变数

适合人群: AI 入门用户、产品经理、运营人员、想快速搭建个性化 A Agent 的创作者、以及预算、技术有限的个人和小型团队等。偏向于C端用户服务;

n8n

https://www.n8nchina.net/

从零掌握 AI + MCP/Responses API 的自动化设计,节省90%的时间和成本,成为AI自动化专家。学会 n8n、Coze、Dify 接入全球领先 AI应用生态,打造属于你的 AI智能工作流。

n8n 的全称是 “Node for workflow automation”。你可以把它理解成一位 自动化小助手:

它可以帮你把多个服务、系统、应用,像乐高积木一样连接起来,自动完成各种重复性任务!

它是:

🔧 开源的(可以免费自部署,不受限制)

🧱 低代码/可视化操作(拖拖拽拽就能搭建流程)

🌐 支持超 300 个服务(比如 Gmail、Slack、钉钉、GitHub、MySQL、微信企业号等)
 

Workflow = 把一连串“事情”按先后顺序排好队,让 n8n 自动帮你做 

#开源 #工作流自动化 #低代码
n8n 的核心是通过可视化节点(Node)来构建自动化流程,同时每个节点所提供的配置参数丰富,定制化程度高。


 支持 Docker 私有化部署,资源消耗较低,1 核 1G 的小型服务器应该都能运行。


优点:
。 开源,可自托管,确保数据隐私和安全,所有数据和流程都在用户的掌控之中
。 提供了超过 400 种不同的应用程序和服务的集成,真正实现了“连接万物”的愿景


低代码和代码能力兼备,无论是新手还是经验丰富的开发者都能找到适合自己的使用方式
社区活跃,模板丰富,使得上手变得简单且有保障
企业级特性支持,如 SSO、RBAC 等


缺点:
虽然是低代码,但为了充分利用其功能,用户需具备一定的逻辑思维能力和前期的学习成本
专注于工作流自动化,LLM 原生支持可能不如专业 LLM 平台深入
适合人群:需要高度定制自动化流程的团队、开发者、以及追求效率最大化的中小企业。

我们来看看三款主流工具在功能、开放性、灵活度上的对比👇

对比项 🌟    n8n    Zapier    Integromat / Make
🔓 是否开源    ✅ 是,完全开源,可自建    ❌ 否    ❌ 否
💰 收费方式    免费(自托管)官方云付费    免费有额度付费按任务数    免费有额度付费按操作数
🔧 自定义能力    💪 强,支持 JS、自定义函数节点    😐 限制多,主要靠内置模块    🆗 中等,部分模块可定制
🔗 支持服务数    300+(持续增加)    600+(集成最广)    1000+(以视觉流程闻名)
🧱 工作流构建方式    可视化 + 编程混合支持条件、循环、函数    线性流程为主    流程图式布局,支持并行/循环
🧠 开发者友好度    非常友好,适合技术人员扩展插件    偏向小白用户,灵活性有限    适合中高级用户,界面精美
☁️ 部署方式    本地 / Docker / 云端    云端(受限于平台)    云端(不可自建)
🔐 数据隐私    数据在自己服务器,完全可控 ✅    数据存在 Zapier 云端 ❌    数据存在 Make 云端 ❌
 📌 建议:

你是……    推荐工具
👨‍💻 稍懂开发,喜欢自定义、私有部署    ✅ n8n(自由度高 + 安全)
🧑‍🏫 零开发背景,追求上手快、简单用    ✅ Zapier(拖拖拽即可用)
🧠 对流程视觉化很看重,希望灵活性强    ✅ Integromat / Make(界面漂亮 + 并行能力强

FastGPT

--知识库小能手

#开源 #RAG知识库
FastGPT 是个开源的 AI 知识库平台,专注于知识库问答系统的构建。基于 LLM 和 RAG 技术,FastGPT 能快速部署一个高效的知识库解决方案,帮助解决特定领域的复杂问题。无论是 Word 文档、PDF 文件还是网络链接,都可以轻松导入并转化为可查询的知识库。FastGPT 提供了数据处理、模型调用和可视化工作流编排、MCP一站式服务。
支持 Docker 私有化部署,最好用 2 核 4G 的服务器来跑,
优点:
免费开源,对于预算有限的团队和个人友好
专攻知识库和 RAG,在其核心领域内做到了极致
文档处理完全自动化,上传后就能用,省心省力
提供可视化工作流,编排问答流程像搭积木一样简单直观


缺点: 功能相对聚焦,不太适合做复杂的通用 AI 应用
。 大型企业级应用案例不多,有点像新开的餐厅,味道不错但没什么“米其林评价“适合人群:需要构建企业内部知识库、AI 客服的开发者或企业,以及对 RAG 技术感兴趣的 AI 爱好者。

RagFlow--知识库专家

#开源 #RAG引擎 #深度文档理解
作为一个开源的 RAG 引擎,RAGFlow 的核心竞争力在于"深度文档理解”,专注于解决复杂格式文档的知识提取与高质量问答。

RAGFlow覆盖了从数据清洗到知识问答的完整流程,并支持构建知识图谱,进一步增强了其作为全方位文档处理解决方案的能力。
支持 Docker 部署,但是需要至少 4 核 16G 配置的服务器才能流畅使用。


优点:
开源,专注 RAG 技术深度应用o
强调答案的准确性和引用溯源,提高可信度

擅长处理复杂格式文档。

计划整合更多企业数据源


缺点:
相对较新,社区和生态系统仍在发展中
应用场景相对垂直,通用 AI 应用开发能力不如 Dify 和 Coze
企业实际应用案例和用户反馈资料相对有限

适合人群::对答案准确性和可追溯性有高要求的行业(如法律、医疗、金融), 需要处理大量复杂文档的企业、以及 RAG 技术的研究者和开发者。

第三部分  基于MCP实现AI应用架构新范式

https://blog.csdn.net/2401_85375151/article/details/147282766

1. MCP 协议

当一个AI应用需要与外部世界互动时,整个过程可以被清晰地拆解为三个步骤,构成一个高效的闭环。

  1. 用户发起提示(Prompt):一切始于用户的需求。用户向应用(MCP主机)发出一个自然语言指令。

  2. 主机与客户端解析(Host & Client):应用内部的MCP客户端会像一个聪明的“调度员”,准确理解用户的意图,并判断需要调用哪些外部工具来完成任务。

  3. 服务器执行(Server):客户端随后与一个或多个MCP服务器通信。这些服务器是真正的“执行者”,它们连接着各种外部API,负责调用功能、获取数据,并将处理结果返回给用户。

服务类型对比矩阵​​:

服务类型状态修改缓存支持协议类比典型应用场景
ResourceREST GET数据查询/配置读取
Prompt模板引擎标准化LLM交互
ToolREST POST/PUT系统操作/复杂计算
  • 工具 (Tools):这是一系列可以直接调用的功能函数。无论是发送邮件、查询天气,还是操作数据库,AI都可以通过标准化的方式调用这些“工具”来执行具体任务。

  • 资源 (Resources):这是AI做出明智决策所需的数据和知识。它可以是公司的内部知识库、实时更新的API文档,或是任何形式的数据源。

  • 提示 (Prompts):这是一套预设的指令模板和行为指南。通过这些精心设计的提示,我们可以约束和引导AI的行为,确保它在执行任务时既高效又可靠,避免出现意外的“自由发挥”。

MCP描绘的,是一个AI应用开发的新范式:用一个统一、简洁的协议,替代过去混乱、复杂的点对点集成。它让构建强大、可靠且可扩展的AI应用变得前所未有的简单。这不仅仅是一次技术升级,更是一场关于效率和创造力的革命。

2. 基于MCP实现AI应用架构新范式

多个AI Agent的协作,这些AI Agent通过分工与合作,共同承载AI应用所支持的业务需求。这种协作模式不仅优化了企业运营,还展现了AI在解决高影响力挑战中的潜力。

当前的AI Agent,无论是和各种Tools(各类业务服务接口)交互,还是和各类Memory(各类存储服务接口)交互,亦或是和各类LLMs(各类大语言模型)交互,都是通过HTTP协议的,除了LLM因为基本都遵循OpenAI范式以外,和其他的Tools和Memory交互都需要逐一了解它们的返回格式进行解析和适配。当一个AI应用包含多个AI Agent时,或者一个AI应用需要和多个业务服务接口和存储服务接口交互时,整体的开发工作量是很大的。因此目前很多AI应用就只有少数几个AI Agent,甚至很多AI应用背后就只有一个AI Agent。这也是目前AI应用背后的AI Agent依然还处在第一个阶段(Siloed, Single-Purpose Agents)的原因。

MCP 是什么

MCP是模型上下文协议(Model Context Protocol)的简称,是一个开源协议,由Anthropic(Claude开发公司)开发,旨在让大型语言模型(LLM)能够以标准化的方式连接到外部数据源和工具。它就像AI应用的通用接口,帮助开发者构建更灵活、更具上下文感知能力的AI应用,而无需为每个AI模型和外部系统组合进行定制集成。MCP被设计为一个通用接口,类似于USB-C端口,允许LLM应用以一致的方式连接到各种数据源和工具,如文件、数据库、API等。

AI 应用架构新范式

我们结合MCP范式,以解决上述挑战点为目的,将AI Agent的架构进行了重构。在云原生API网关,微服务引擎Nacos两个产品中做了MCP增强能力,解决了上述大部分的挑战点。在函数计算 FC,Serverless应用引擎 SAE 两个产品中做了MCP增强能力,前者解决快速开发MCP Server的问题,后者解决开源Dify性能的问题。共同构建了基于MCP的AI应用开发新范式。

AI 应用架构新范式刨析

首先我对图中的8步核心调用链路做以解析:

第一步:用户向AI应用发起请求,请求流量进入流量网关(云原生API网关)。

第二步:云原生API网关侧维护管理了不同类型的AI Agent的API或路由规则,将用户请求转发至对应的AI Agent。

第三步:AI Agent无论以哪种方式实现,只要其中的节点需要获取数据,便向MCP网关(云原生API网关)请求获取可用的MCP Server及MCP Tool的信息。

第四步:因为MCP网关处可能维护了很多MCP信息,可以借助LLM缩小MCP范围,减少Token消耗,所以向AI网关(云原生API网关)发请求和LLM交互。(这一步可选)

第五步:MCP网关将确定好范围的MCP Server及MCP Tool的信息List返回给AI Agent。

第六步:AI Agent将用户的请求信息及从MCP网关拿到的所有MCP信息通过AI网关发送给LLM。

第七步:经过LLM推理后,返回解决问题的一个或多个MCP Server和MCP Tool信息。

第八步:AI Agent拿到确定的MCP Server和MCP Tool信息后通过MCP网关对该MCP Tool做请求。

实际生产中 ③ - ⑧ 步会多次循环交互。

我们依然基于MCP的两个本质来刨析这个新的架构。

http://www.dtcms.com/a/393428.html

相关文章:

  • 【名人简历】鲁迅
  • linux文件系统基本管理
  • 2.1 进程与线程 (答案见原书 P57)
  • SDL2 开发详解
  • c++ 深拷贝之 std::string 与 char*
  • [数理逻辑] 决定性公理与勒贝格可测性(II) 一维情况
  • [Tongyi] DeepResearch Model | MODEL_PATH
  • 儿童对话玩具模型设计与实现
  • 生成器迁移的偏差消除条件
  • LeetCode 刷题【86. 分隔链表】
  • 回溯.专题
  • QML学习笔记(五)QML新手入门其三:使用Row和Colunm进行简单布局
  • 【视图功能11】视图权限控制与协作场景实践
  • YOLOv5至YOLOv12升级:交通标志识别系统的设计与实现(完整代码+界面+数据集项目)
  • 双指针算法案例:有序顺序表的交并差
  • syn和quote实现派生宏Builder
  • MQTT消息质量等级——QoS
  • 【OpenGL】shader 着色器
  • 给AI装上“眼睛”:Schema标记和技术性GEO实战部署
  • 中超-克雷桑破门 齐鲁德比泰山2-2遭海牛读秒绝平!
  • gitflow在公司的全流程
  • 如何解决 pip install 安装报错 ModuleNotFoundError: No module named ‘grpc’ 问题
  • C语言第17讲
  • 人机协同开发中的“深水炸弹”——指令上下文混淆
  • 朴素贝叶斯算法详解:原理、应用与实践
  • 强化学习的数学原理-02章 贝尔曼公式
  • C++:入门基础(2)
  • 数据架构章节考试考点及关系梳理
  • 用TRAE编程助手编写一个浏览器插件
  • 赋能工业未来:向成电子XC3576H工控主板多领域应用前景