当前位置: 首页 > news >正文

构建AI代理工作流的开源利器——Sim Studio

Sim Logo

Sim:开源的AI代理工作流构建器

Sim是一个轻量级、用户友好的平台,旨在帮助用户快速构建和部署与您喜欢的工具连接的LLM(语言模型)工作流。结合简洁直观的操作界面,Sim帮助用户在构建AI代理工作流时更为高效。

应用场景

Sim适用于多个场景,包括但不限于:

  • 智能客服:通过构建自定义AI代理,实现24/7的客户服务。
  • 教育助手:为学生提供实时的智能辅导和个性化学习支持。
  • 数据分析:帮助团队快速获取和分析关键业务数据,提供决策支持。
  • 虚拟助手:开发多功能个人助手,处理日常任务和提醒。

功能特点

  1. 轻量级和易于使用:用户可以通过简洁的界面快速上手,无需复杂的设置。
  2. 多种托管选项:用户可以选择使用云托管的版本,也可以根据需要自我托管。
  3. 支持本地模型:与Ollama配合,可以在本地运行AI模型,保障数据隐私和安全。
  4. 实时协作:通过Socket.io实现多用户的实时协作工作流。
  5. 模块化结构:支持开发自定义模块,增强功能和灵活性。

如何开始使用Sim

方法一:使用云托管版本

最简单的方式是访问Sim的云托管版本。

方法二:自我托管

你可以选择以下几种方式之一来本地运行Sim:

选项1:NPM包(最简单)
  1. 确保你的设备已经安装了Docker。
  2. 在终端运行以下命令:
    npx simstudio
    
  3. 完成后在浏览器中打开http://localhost:3000/。
可选参数
  • -p, --port : 指定Sim运行的端口(默认:3000)
  • --no-pull: 跳过拉取最新的Docker镜像
选项2:Docker Compose

这个方法相对简单,适合有Docker基础的用户。

  1. 克隆代码库
    git clone https://github.com/simstudioai/sim.git
    
  2. 进入项目目录
    cd sim
    
  3. 启动Sim
    docker compose -f docker-compose.prod.yml up -d
    
  4. 访问应用程序:http://localhost:3000/
使用Ollama运行本地模型

如需与本地AI模型(如Ollama)配合使用的功能,依照以下步骤操作:

  1. 带GPU支持启动(自动下载gemma3:4b模型)

    docker compose -f docker-compose.ollama.yml --profile setup up -d
    
  2. 对于仅CPU的系统:

    docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d
    
  3. 模型下载完成后,访问http://localhost:3000。如需添加更多模型:

    docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b
    
选项3:开发容器
  1. 使用Remote - Containers扩展打开VS Code。
  2. 打开项目并在提示时选择“在容器中重启”。
  3. 在终端运行 bun run dev:full 启动主应用程序和实时socket服务器。
选项4:手动设置
  • 环境要求
    • Bun运行时
    • PostgreSQL 12+ 和 pgvector扩展 (需要支持AI嵌入)
  1. 克隆并安装依赖:

    git clone https://github.com/simstudioai/sim.git
    cd sim
    bun install
    
  2. 设置PostgreSQL与pgvector:

选择以下任一选项:

选项A:使用Docker(推荐)

docker run --name simstudio-db \-e POSTGRES_PASSWORD=your_password \-e POSTGRES_DB=simstudio \-p 5432:5432 -d \pgvector/pgvector:pg17

选项B:手动安装

  • 安装PostgreSQL 12+ 和 pgvector扩展,参见pgvector安装指南。
  1. 设置环境变量:
    cd apps/sim
    cp .env.example .env  # 使用必需的变量配置
    

更新.env文件中的数据库URL:

DATABASE_URL="postgresql://postgres:your_password@localhost:5432/simstudio"
  1. 设置数据库:

    bunx drizzle-kit migrate 
    
  2. 启动开发服务器:

推荐方案 - 在项目根目录下同时启动两个服务器:

bun run dev:full

可选方案 - 分别运行服务器:

  • Next.js应用(从项目根目录):
    bun run dev
    
  • 实时socket服务器(从 apps/sim 目录在另一个终端):
    cd apps/sim
    bun run dev:sockets
    

技术栈

  • 框架: Next.js (应用路由)
  • 运行时: Bun
  • 数据库: 使用Drizzle ORM的PostgreSQL
  • 认证: Better Auth
  • UI: Shadcn, Tailwind CSS
  • 状态管理: Zustand
  • 流程编辑器: ReactFlow
  • 文档: Fumadocs
  • Monorepo: Turborepo
  • 实时支持: Socket.io
  • 后台工作任务: Trigger.dev

同类项目推荐

在开源AI工作流构建领域,除了Sim之外,还有一些值得关注的项目:

  1. Rasa:专注于构建对话式AI,提供自然语言处理和机器学习功能,适合开发智能客服或语音助手。
  2. Haystack:是一个开源的框架,用于构建以搜索为导向的AI应用,支持文档检索和问答系统。
  3. Dialogflow:虽然是由Google支持的项目,但它提供强大的对话流创建功能,适合用于构建聊天机器人和语音助理应用。

这些项目各有特色,选择适合您需求的工具,构建强大的AI工作流吧!

http://www.dtcms.com/a/326705.html

相关文章:

  • 文件编辑html
  • C语言命令行参数
  • 北京JAVA基础面试30天打卡07
  • 【C++竞赛】核桃CSP-J模拟赛题解
  • 提示词工程实战:用角色扮演让AI输出更专业、更精准的内容
  • vagrant和itamae怎么配合使用? (放弃)
  • 33Nginx模块的从配置与优化
  • 如何使用curl编程来下载文件
  • MacBook 本地化部署 Dify 指南
  • AIDL简单使用
  • 【接口自动化测试】---YAML、JSON Schema
  • 逐际动力开源运控 tron1-rl-isaacgym 解读与改进
  • VMD例程(Matlab 2021b可直接使用)
  • 从“目标烂尾”到“100%交付”:谷歌OKR追踪系统如何用“透明化+强问责”打造职场责任闭环
  • 小白入门指南:Edge SCDN 轻松上手
  • Dify 从入门到精通(第 28/100 篇):Dify 的多租户架构
  • 【学习嵌入式day-21-Linux编程-shell命令】
  • 第九篇:调试工具:Three.js Inspector使用
  • 武汉火影数字|VR大空间是什么?如何打造VR大空间项目
  • 【华为机试】648. 单词替换
  • SciChart图形库应用
  • 专题:2025人形机器人与服务机器人技术及市场报告|附130+份报告PDF汇总下载
  • TCGA数据集下载工具gdc-client下载慢解决方案
  • mysql参数调优之 innodb_buffer_pool_size和innodb_buffer_pool_instances (三)
  • Java AI生成长篇小说的实用
  • VirtualBox虚拟机网卡配置
  • NR,LTE基于CSI的PMI-RI码本选择
  • 【算法训练营Day23】贪心算法part1
  • nginx高新能web服务器
  • UVM验证—UVM 简述