华为云Flexus+DeepSeek征文| 基于Dify-LLM平台应用实践:创建智能知识库问答助手
华为云Flexus+DeepSeek征文| 基于Dify-LLM平台应用实践:创建智能知识库问答助手
- 前言
- 一、相关名词介绍
- 1.1 华为云Flexus X实例介绍
- 1.2 华为云ModelArts Studio介绍
- 二、本次实践介绍
- 2.1 本次实践环境介绍
- 2.2 Dify平台介绍
- 三、搭建Dify-LLM开发平台
- 3.1 进入部署详情页
- 3.2 选择部署方式
- 3.3 创建资源栈流程
- 3.4 开始部署Dify
- 3.5 查看部署结果
- 四、 访问Dify-LLM应用开发平台
- 4.1 访问Dify初始页
- 4.2 访问Dify平台首页
- 五、Dify-LLM开发平台的基本使用
- 5.1 开通ModelArts Studio商用服务
- 5.2 创建API key
- 5.3 Dify平台对接MaaS服务
- 5.4 创建知识库
- 5.5 知识库配置工作
- 5.6 创建聊天助手
- 5.7 对话测试
- 六、华为云Flexus X实例的资源使用情况
- 七、快速清空资源
- 八、总结
前言
随着人工智能技术的快速发展,构建高效、智能的知识服务系统已成为企业提升竞争力的重要手段。华为云Flexus X实例
凭借其卓越的性能和灵活的扩展能力,为AI应用提供了强大支撑。本次实践基于Dify-LLM平台
,结合DeepSeek大模型,探索智能知识库问答助手的构建路径。旨在通过华为云领先的技术能力,实现知识内容的快速接入与智能化处理,为企业提供更高效、精准的问答服务体验。
一、相关名词介绍
1.1 华为云Flexus X实例介绍
华为云Flexus云服务器X实例
是新一代面向中小企业和开发者的柔性算力云服务器。它能够智能感知业务负载的变化,自动调整资源配置。这款服务器特别适用于中低负载的应用场景,例如电商直播、企业网站建设、开发测试环境、游戏服务器以及音视频服务等。X实例的设计理念旨在为用户提供更加灵活和高效的计算资源管理方式。通过智能调整,它可以更好地满足不同业务的需求,提高资源利用率。
1.2 华为云ModelArts Studio介绍
ModelArts Studio
是华为云提供的一个大模型即服务平台(MaaS服务),旨在简化模型开发流程,支持定制化大模型的开发,并使这些模型能够无缝集成到业务系统中。通过降低企业AI应用的成本和难度,ModelArts Studio助力企业快速实现AI技术落地。
二、本次实践介绍
2.1 本次实践环境介绍
云厂商 | 实践目标 | 云服务器类型 | 部署方式 | 主要资源清单 |
---|---|---|---|---|
华为云 | 快速搭建 Dify-LLM 应用开发平台 | Flexus 云服务器 X 实例 | 单机一键部署(本地部署) | Flexus X 实例、弹性 IP(EIP)、安全组、VPC、Dify-LLM 应用开发平台 |
2.2 Dify平台介绍
🌐 Dify 简介
💡 Dify 是一个面向开发者的 AI 应用开发平台,提供完整的工具链与框架,帮助用户快速构建、部署和管理基于大型语言模型(LLM)的应用程序。 其核心目标是降低 AI 应用开发门槛,支持从原型设计到生产环境的全流程,适用于 AI 助手、智能客服、内容生成等多种场景。
⚙️ 核心特性
-
- 🧱 低代码开发
提供可视化编排界面,开发者可通过拖拽方式设计 AI 工作流,无需深入编码即可实现复杂逻辑,提升开发效率。
- 🧱 低代码开发
-
- 🔄 多模型支持
兼容主流 LLM(如 GPT、Claude、通义千问等),允许灵活切换模型或结合多个模型的能力,满足不同业务需求。
- 🔄 多模型支持
-
- 📁 数据管理
内置数据集管理功能,支持上传、标注数据,并用于模型微调或上下文增强,打造更专业、定制化的 AI 应用。
- 📁 数据管理
-
- 🔌 API 集成
开放标准化 API 接口,方便将 AI 能力嵌入现有系统或第三方应用,实现无缝对接与扩展。
- 🔌 API 集成
三、搭建Dify-LLM开发平台
3.1 进入部署详情页
华为云快速搭建Dify-LLM应用开发平台地址:https://www.huaweicloud.com/solution/implementations/building-a-dify-llm-application-development-platform.html
3.2 选择部署方式
在部署方式中选择“一键部署(云服务器单机部署)”,点击确认即可开始部署。
3.3 创建资源栈流程
创建资源栈—选择模版步骤
在创建资源栈——选择模版配置中:
创建方式
:已有模版;模版来源
:URL模版URL
:选择默认提供的地址即可。设置完毕后
,选择下一步。
创建资源栈—参数设置工作
填写以下参数,大部分参数默认即可,可参考下面的参数说明表。注意将
ecs_password
的值为华为云 Flexus X 实例的服务器密码。
创建资源栈—资源栈设置
-
IAM 权限委托(可选):在资源栈配置中,设置 IAM 委托可明确授予 Resource Stack 服务操作资源栈的权限(如创建、更新、删除等),权限不足可能导致部署或执行计划失败。 若使用华为主账号或
admin
用户组下的子账号,可不选委托,系统将默认使用账号自身权限。 -
回滚设置(建议开启):开启回滚后,若部署失败,系统将自动恢复至上一个成功状态,保障环境稳定性。
该选项可在创建后于资源栈详情页随时修改,建议本次选择开启。 -
删除防护(测试环境可关闭):删除防护功能用于防止资源栈被误删,保护关键资源安全。 由于当前为测试环境,便于后续清理操作,建议选择不开启。
创建资源栈—配置确认
检查所有配置无误后,在配置确认界面中,单击“创建执行计划”。
3.4 开始部署Dify
可自行修改执行计划名称,这里直接默认名称,点击“确认”。
费用预估
:在开始部署前,我们在执行计划中,可以点击“查看费用明细”,注意保证账户余额充足,防止部署失败。
在执行计划列表中,选择刚才创建的执行计划,点击“部署”。
在弹出窗口中,点击“执行”,确认开始部署。
3.5 查看部署结果
需要等待一段时间进行部署,当在事件描述中,看到“ Apply required resource success. ”提示时候,表示已经部署成功。
四、 访问Dify-LLM应用开发平台
4.1 访问Dify初始页
确保华为云Flexus X实例的安全组规则中,入方向上放行80端口,如下所示:
在我们刚才创建的资源栈输出中,可以看到Dify-LLM应用开发平台的访问地址。
在本地浏览器打开该网址,可以访问到Dify平台初始页。
4.2 访问Dify平台首页
在Dify设置管理员账号页面上,我们自行设置账号密码即可,填写完毕后,点击“设置”。
重新登录Dify平台,输入刚才创建的邮箱账号和密码,完成登录。
五、Dify-LLM开发平台的基本使用
5.1 开通ModelArts Studio商用服务
访问 ModelArts Studio 大模型即服务平台后,ModelArts Studio 控制台,登录后进入 模型推理 页面,选择 在线推理 > 预置服务 > 商用服务,在模型列表中找到 DeepSeek-R1-32K,点击“开通服务”以启用该模型,具体操作如下所示:
- ModelArts Studio 大模型即服务平台地址:https://www.huaweicloud.com/product/modelarts/studio.html
在使用说明中,我们选择OpenAI SDK,,复制模型名称和API地址。
5.2 创建API key
我们在ModelArts Studio控制台左侧菜单栏中,单击“API Key管理”,开始创建API key。
填写API key的标签和描述,填写完毕后,确认创建。
复制我们刚才生成的密钥,如下所示:
5.3 Dify平台对接MaaS服务
在 Dify 首页右上角点击用户头像或用户名,从下拉菜单中点击“设置”进入配置页面。
在左侧导航栏选择“模型供应商”,选择OpenAI-API-compatible供应商进行安装。
点击“添加模型”,配置模型信息,参考如下配置:
模型类型
: LLM模型名称
:DeepSeek-R1模型显示名称
:华为云- DeepSeek-R1API Key
: 将刚才创建的API key复制即可API endpoint URL
:https://api.modelarts-maas.com/v1其余默认即可
,点击保存。
在模型列表中,可以看到我们成功添加DeepSeek-R1模型。
5.4 创建知识库
在 Dify 平台页面中,我们选择知识库模块,点击“创建知识库”选项。
选择数据源:导入已有文本,上传本地测试文件,点击“下一步”。
5.5 知识库配置工作
在配置知识库时,若无特殊需求,可选择 “经济型” 模式,使用默认设置即可满足基本使用场景。点击 “保存与处理”,待页面提示“嵌入已完成”即表示配置成功。
说明:
- 高质量型:适用于对检索精度要求较高的场景,需提前配置 Embedding 和 Reranker 模型,通过调用嵌入模型处理文档,提升检索质量,从而帮助 LLM 生成更准确的回答。
- 本次测试我们选择“经济型”配置,其余参数保持默认设置。 确认后点击 “保存与处理” 完成配置流程。
5.6 创建聊天助手
创建空白应用步骤中,可参考如下配置:
- 应用类型:聊天助手 ;
- 应用名称:可自定义填写,这里填写知识库问答助手;
- 描述:自定义填写;
在聊天助手的编排设置中,我们添加刚才创建的知识库。
5.7 对话测试
在调试和预览过程中,我们通过对话框对知识库中的文档内容进行咨询,能够有效引用并展示上传的文档信息,从而提供准确的回答,整体体验较为理想。
六、华为云Flexus X实例的资源使用情况
在本次基于 华为云 Flexus X 实例 与 Dify-LLM 平台 构建智能知识库问答助手的实践中,我们通过持续监控 Flexus X 实例的 CPU 使用率、CPU 负载、内存占用等核心资源指标,全面评估了其在实际运行中的性能表现。同时,我们也将其与本地部署方案进行了对比分析,结果进一步验证了 Flexus X 实例在资源利用率、系统稳定性以及整体运行效率方面的显著优势。
实践表明,Flexus X 实例不仅具备出色的资源控制能力:即便在高并发请求下,CPU 使用率仍保持平稳(平均低于 10%),内存占用稳定可控,负载曲线平滑,展现出高效的任务调度能力;而且相较于传统本地部署方式,Flexus X 还具备更高的灵活性与可维护性,支持弹性伸缩、自动化运维和多层安全防护,极大降低了部署与管理成本。这充分体现了 华为云 Flexus X 实例作为 AI 应用理想载体的强大实力 —— 在保障高性能的同时,实现了轻量化、智能化、高可用的云上运行体验。
七、快速清空资源
为了避免不必要的费用支出,我们在完成本次实践,请务必关闭相关资源。我们进入 资源编排服务 控制台,找到刚才创建的资源栈,点击“删除”按钮以一键清理所有关联资源。通过及时删除资源栈,可以有效避免因未关闭资源而导致的过度扣费问题,确保资源使用的成本可控。
八、总结
🌟 使用感受:实践成果与技术价值并重
本次基于 华为云 Flexus X 实例 与 Dify-LLM 平台 构建智能知识库问答助手的实践,充分验证了华为云在 AI 应用部署与云计算服务方面的卓越能力。通过灵活高效的 Flexus X 实例,我们实现了从环境搭建、模型部署到知识库接入的全流程快速开发。其低资源占用、高并发处理能力和稳定运行表现,显著提升了系统响应效率与用户体验,为构建轻量级、高性能的智能问答系统提供了坚实基础。
💡 实践总结:高效、便捷、值得信赖的云服务体验
在整个项目实践中,华为云 Flexus X 实例展现出强大的弹性伸缩能力与运维便利性,极大降低了部署门槛和运营成本。得益于其“即开即用”的特性,我们无需耗费大量时间进行本地环境配置,即可快速进入功能开发与模型优化阶段。同时,结合 Dify-LLM 平台的强大功能,轻松实现了知识内容的结构化处理与智能语义匹配,真正做到了“AI 能力 + 云服务”的深度融合。
华为云 Flexus X 实例以其出色的性能表现和极致的使用体验,成为我们本次项目成功的关键支撑。它不仅是一款云服务器产品,更是推动 AI 创新落地的强大引擎。未来,我们期待继续携手华为云,探索更多智能化应用场景,释放云端算力潜能!
🚀 选择华为云 Flexus X,让智能应用更轻盈、更快捷、更强大!
💻 一站式部署 | 📈 弹性伸缩 | 🧠 高效赋能 AI 应用
🌈 让你专注于创新,而不是基础设施!