AI IDE/插件(二)
概述
在Vibe Coding、AI IDE/插件里汇总过一些AI IDE或插件。
本文继续汇总。
Lapce
官网,官方文档,开源(GitHub,37.4K Star,1.2K Fork)、基于Rust、跨平台、功能强大的代码编辑器,通过原生GUI和GPU渲染实现超高性能。
功能特性
- 高性能:原生GUI,支持GPU和CPU加速的Floem框架,为启动速度和日常操作带来即时响应的体验;
- 远程开发:可通过SSH方便地连接到远程服务器进行开发,享受本地体验;
- 内置LSP支持:可以获得代码补全、错误诊断等智能提示,Tree-sitter为各种编程语言提供高效的代码解析能力;
- 模态编辑:支持类似Vim的模态编辑,可以完全使用键盘进行高效操作;
- 内置终端:方便用户在不切换窗口的情况下运行命令;
- 插件系统:基于WebAssembly接口的插件系统,可用多种语言编写,并且运行在安全的沙箱环境中,不会影响主编辑器的性能;
- 其他功能:快捷键、主题设置、命令面板、多光标等。
SpecKit
GitHub提出SDD(Spec-Driven Development)理念,即先规划再实现
的开发模式。开源(GitHub,34.1K Star,2.9K Fork)。核心优势在于提供一套完整的开发框架,将想法一步步变成现实。
整个工作流程分为五个关键步骤:
- Constitution:确立项目的基本原则和底线要求。比如开发一个自媒体素材管理的Mac应用时,会规定"交互必须简单快捷"、“使用浅色主题”、"代码清晰易读不过度优化"等核心原则。
- Specify:详细定义功能需求。以素材管理应用为例,需要支持:
- 分类展示素材(文本、图片、音频、视频)
- 网格布局和原地编辑功能
- 直接播放控制(支持5秒快进/快退)
- 响应式设计
- Plan:制定技术方案。选择SwiftUI+Swift Package Manager开发原生Mac应用,文本数据用CSV存储,媒体文件本地存储。
- Task:自动拆解任务清单。系统会生成47个具体任务,包括:
- 基础设置:项目结构、依赖配置
- 核心实现:数据模型、服务层、视图层
- 高级功能:媒体编辑、资产管理
- 性能优化:启动时间<2秒,滚动60fps
- Implement:执行实现。支持切换不同AI编程助手(如Claude Code或Codex)来实际编写代码。
核心价值:
- 提供思考框架:明确开发路径,知道每一步该做什么
- 促进团队协作:通过规范文档实现知识共享,降低沟通成本
强大的自动化能力:
- 自动生成项目规范文档(constitution.md)
- 创建详细的功能说明书(spec.md)
- 输出完整的技术实施方案(plan.md)
- 拆解出可执行的任务列表(tasks.md)
支持AI编程工具:Claude Code、Cursor、Qwen Code等,进而实现多AI协作。
OpenCode
官网,官方文档,开源(GitHub,27.3K Star,2K Fork)、基于TypeScript和Go语言开发、跨平台,为终端环境打造的AI编程助手,让开发者不离开熟悉和高效的命令行环境就能直接获得AI的强大编程能力,可极大地提升开发效率和体验。
技术架构上,采用终端UI+本地Server+多模型Provider三层设计:
- TUI层:基于Bubble Tea实现类似Vim的交互体验,支持多光标编辑与GPU加速渲染;
- Server层:通过HTTP接口调度文件操作、Shell命令、LSP服务;
- Provider层:动态加载模型插件,支持自定义AI服务。
功能特性
- 原生终端界面:提供原生、响应式、可定制化的终端UI,用户在整个使用过程不需要离开命令行环境;
- 多模型支持:支持75+ LLM,包括GPT、本地大模型等;
- 编程功能:包括代码生成与补全、代码解释、调试助手、重构与优化等。还能协助编写Git提交信息、生成正则表达式、起草文档等;
- LSP集成:内置集成大量编程语言LSP,可帮助LLM理解代码;
- MCP集成:通过添加本地或远程MCP服务器扩展功能;
- 多会话管理:支持在多个对话会话间切换,使用SQLite进行会话数据持久化存储;
- 客户端/服务器架构:可实现更好的性能、可扩展性以及功能集成,用户可通过TS/JS实现自己的客户端与opencode服务器进行交互;
- 其他功能:快捷键,IDE集成(VS Code、Cursor等),共享会话内容,定制规则,权限控制等。
安装
# 通过脚本安装
curl -fsSL https://opencode.ai/install | bash
# npm包
npm install -g opencode-ai
bun install -g opencode-ai
# Mac
brew install sst/tap/opencode
# Windows
winget install opencode
choco install opencode
命令行:
Roo Code
官网,开源(GitHub,20.2K Star,2.3K Fork),提供在线版,以及VS Code插件。
Plandex
官网,开源(GitHub,14.4K Star,1K Fork),专为大型代码库设计,支持200万token上下文或通过Tree-sitter索引2000万token。
功能
- 智能上下文管理
- 动态加载必要文件,减少延迟与成本。
- 支持多语言(>20种),基于Tree-sitter实现高性能语法验证。
- 变更隔离 + 沙盒审查
- 所有修改先在沙盒中隔离,确认后合并;
- 提供回滚与自动调试,确保无残留改动。
- 自动化模式可调
- 自动至手动模式切换,适应不同任务复杂度;
- 自动执行构建、测试、部署等命令;Chrome支持浏览器调试。
- 多模型支持
- 集成OpenAI等及开源模型;
- 任务匹配最优模型,避免供应商锁定。
优势
- 大项目优化,支持百万级token上下文
- 可配置自动化程度,灵活工作流
- 强化沙盒机制,保障代码质量
安装:curl -sL https://plandex.ai/install.sh | bash
使用
- 进入项目目录 →
pdx
(或plandex
); - 初始为聊天模式 →
tell
模式生成计划并编写代码。
部署多样性
类型 | 特点 |
---|---|
本地自托管 | 免费,无需依赖,Docker支持 |
Plandex Cloud(集成) | $45/月,含$20永不过期额度 |
Plandex Cloud(自供APIKey) | $30/月,自行提供Key |
Flyde
官网,开源(GitHub,3.4K Star,149 Fork)的可视化编程辅助插件工具。主要功能是通过拖拽连接不同的节点来创建程序,节点可以是各种功能模块,如读取数据、处理数据、调用AI模型数据,通过连接这些节点可以快速构建出复杂的程序逻辑,可提高编程效率。[在线体验]
目标是解决软件研发过程中的痛点:需求没对齐。通过可视化工作流,让各个角色都可以看见每一步骤的实现,从最初的概念到代码实现,都在一个协作空间中。
通过拖拽操作创建AI工作流,让每个人都了解数据流向、决策制定、结果生成的过程。每个人都能看到同一个工作流,一起评论、提出建议然后进行改进,避免各种返工。
功能
- 可视化工作流引擎:使用节点和连线构建程序流程图,每个节点代表一个独立的功能,例如API调用、数据处理、条件判断,实时的可视化数据流动,让复杂的逻辑一目了然。
- 与代码深度集成:支持导入现有TS函数作为节点,自动生成可视化界面,保留源代码类型安全和可测性。同时可以导出现有项目的代码。
- 内置常用组件库:内置了常用节点,例如HTTP请求、定时器、数据转换等。同时支持自定义节点开发,提供AI辅助节点生成功能。
- 适合团队协作:实时多人编辑、评论、建议、修改,使用方式类似Figma,适合多人团队协作。
- 实时监控:内置监控功能,可以实时监控性能指标,错误的跟踪及使用情况的分析。
应用场景
- 集成到现有代码库:基础功能
- 构建AI聊天机器人:例如从用户输入提取信息,然后调用AI模型生成回复,并将回复发送给用户。无需编写大量的代码;
- 自动化数据处理流程:例如创建一个流程,从多个数据源收集数据、进行清洗、流转,最后将结果存储到数据库中;
实战
选择一个IDE,VS Code、Cursor、Windsurf
code --install-extension flyde.flyde-vscode
npm install @flyde/loader
# 新建Flyde流
iFlow CLI
官网,开源(GitHub,2.2K Star,166 Fork)。iFlow CLI是心流AI(阿里旗下推出的AI搜索助手)团队推出的能运行在终端的AI智能体,专为开发者和高效工作者设计。iFlow CLI支持自然语言交互,能快速分析代码、生成文档、调试程序、管理文件、查询信息等。iFlow CLI内置强大的AI模型(如Qwen3-Coder、Kimi K2等),支持用户在终端中高效完成复杂任务,提升工作效率。iFlow CLI安装便捷,支持多种操作系统,完全免费,是编程和日常任务处理的得力助手。
功能
- 自然语言交互:支持自然语言命令,理解用户需求,提供上下文感知的智能辅助。
- 模型切换:支持多种AI模型,用户按需切换。
- 自动化任务执行:自动执行复杂任务,如代码分析、文件操作、数据处理等。
- GitHub Actions集成:支持在GitHub工作流中自动化执行任务,提升开发效率。
- 插件:提供JetBrains IDE、VS Code等IDE插件。
安装:
bash -c "$(curl -fsSL https://gitee.com/iflow-ai/iflow-cli/raw/main/install.sh)"
# 或
bash -c “$(curl -fsSL https://cloud.iflow.cn/iflow-cli/install.sh)”
安装成功后,输入iflow
即可开始使用。
Zed
由Atom和Tree-sitter的核心团队打造,目标是提供极快的响应速度、原生级体验和低延迟的实时协作功能。采用原生Rust代码实现,启动与运行都非常轻量,内置强大的语言支持和Git集成。通信协议采用轻量级JSON-RPC。
推出Agent Client Protocol(ACP)协议,借鉴语言服务器协议(Language Server Protocol,LSP),将特定的语言功能和IDE分离,使IDE可支持不同开发语言的特性和功能。
通过ACP协议,IDE可将各种Agent功能集成进来。第一个支持Zed ACP协议的Agent:Gemini CLI。
~/.config/zed/settings.json
配置文件示例:
{"theme": "One Dark","font_family": "JetBrains Mono", # 或Fira Code"font_size": 14,"line_height": 1.4,"relative_line_numbers": true,"soft_wrap": false,"autosave": "on_focus_change","cursor_blink": true,"format_on_save": true,"highlight_active_line": true,"tab_size": 2,"trim_trailing_whitespace_on_save": true,"show_git_status_in_file_tree": true,"show_inline_diagnostics": true,"git_inline_blame": true,"keymap": "vim"
}
快捷键
- 打开命令面板:Ctrl + Shift + P
- 全局搜索:Ctrl + Shift + F
- 跳转到定义:F12
- 查找引用:Shift + F12
- 格式化文件:Shift + Alt + F
- 自动LSP支持,多语言代码智能提示
其他
心流
心流是阿里巴巴推出的基于星辰大模型的AI搜索助手,通过智能技术提升用户的知识获取效率。集成近3000万篇学术论文资源,覆盖Nature、IEEE、ArXiv等权威期刊,支持学术问答、AI精读、段落总结、智能翻译和名词解释等功能,能帮助研究人员和学生快速理解和分析论文内容。心流提供DeepSeek渠道,联网搜索协助思考过程,具备通用问答、慢推理、私人知识库等功能,适用于市场调研、文档分析、内容创作等多种场景。用户可通过网页版、手机APP或Chrome浏览器插件使用心流,享受高效、智能的知识管理体验。
功能
- AI智能搜索与问答
- 通用问答:支持广泛的问答需求,包括市场调研、活动总结、文档分析等。心流的回答会展示搜索来源,使答案更可信;
- 慢推理:针对复杂问题,支持多轮思考和深度分析,帮助用户进行辩证性思考;
- 学术问答:集成近3000万篇学术论文资源(包括Nature、IEEE、ArXiv等),支持AI精读、段落总结、智能翻译和名词解释。
- 学术研究辅助
- 论文资源:提供丰富的学术论文资源,无需下载即可直接阅读;
- AI辅助阅读器:支持长文本总结、翻译和短文本解释,帮助用户快速理解论文内容;
- 引用跳转:点击论文中的引用标志,可直接显示引用论文的摘要;
- 论文精读功能:用户可以通过选中段落,调用AI能力进行总结、翻译或解释,并将结果保存到笔记中。
- 知识管理与创作辅助
- 私人知识库:用户可以上传自己的文献或文档,心流会根据这些内容进行针对性搜索和分析,提升文献阅读效率;
- 笔记功能:用户可以保存AI生成的内容到笔记中,方便随时查看和回顾;
- 内容创作辅助:支持生成播客内容,将文字答案转化为双人对话模式的播客,使内容更生动。
- 答案生成播客:将文字内容转化为播客,适合不想阅读文字的用户。
- 心流模式:提供无线画布设计,适合汇报或头脑风暴场景。
- 连网搜索:通过DeepSeek渠道,结合联网搜索协助用户思考。
Chat地址
【阅读】标签页,简直就是科研工作者的福祉
【发现】模块
提供两种对话模式:高级研究、AI搜索,后者可开启/关闭【深度搜索】模式;两种模式都支持上传文件,前者还支持和知识库联动
此外还有开放平台
Tree-sitter
开源(GitHub,22.3K Star,2.1K Fork),官方文档。一个具体语法树(Concrete Syntax Tree,CST,也可叫Parse Tree,即PT)解析生成工具,最初被用于Atom文本编辑器,后续被用于越来越多的地方,如GitHub Navigating Code功能,特点:
- 通用:支持绝大部分编程语言
- 快速:具备增量构建能力
- 健壮:即使存在语法错误,也可以输出有效的结果
- 无依赖:使用纯C编写,并提供
wasm
包可在浏览器环境高效运行
提到CST,需要再提一句AST(抽象语法树,Abstract Syntax Tree),
CST与AST
很多Paser在工作时,会首先生成CST,包含所有的代码细节,再经过一些操作,去除冗余的语法信息,只保留语义相关的部分,将CST转化为AST。所以一般来说AST相比CST的抽象程度更高,CST生成更快。
CST优点在于存储更加完整的语法细节,这使得它在代码补全、代码格式化、语法高亮等领域相比AST更为合适。
Bubble Tea
开源(GitHub,35.7K Star,1K Fork),基于GO语言的强大且轻量TUI(Terminal User Interface)框架。内置简单的事件处理机制,可以对外部事件做出响应。
参考
- Go bubbletea
- 利用Tree-sitter进行语法树分析