AI基础概念-第一部分:核心名词与定义(一)
📅 创建日期:2025年10月
🎯 适合人群:AI初学者、想了解Agent开发的开发者
AI基础概念-第一部分:核心名词与定义(一)
- 📚 第一部分:核心名词与定义
- 1. Agent (智能代理)
- 2. LLM (Large Language Model,大语言模型)
- 3. Prompt (提示词)
📚 第一部分:核心名词与定义
1. Agent (智能代理)
通俗理解:就像一个能自己思考、做决策的智能助手。比如你让它"帮我订一张机票",它不仅能理解你的需求,还能自己规划步骤:搜索航班→比较价格→选择合适的→完成预订。
关键特征:
- 能理解任务
- 能自主规划
- 能使用工具
- 能从经验中学习
个人理解:
我目前主要使用Cursor Agent,在实际工作流中,Cursor就像我的一个AI助理或初级开发者。我的工作模式是:
- 我的职责:接收客户需求 → 理解和拆解需求 → 将任务分配给Cursor → 审查代码质量 → 实机测试验收
- Cursor的职责:理解我的任务描述 → 自主搜索和分析代码 → 规划修改方案 → 执行代码修改
这种协作模式让我从"写代码"升级为"审代码",大幅提升了开发效率。Agent的价值不在于完全替代人类,而在于自动化重复性工作,让人类专注于更高层次的决策和创造。
2. LLM (Large Language Model,大语言模型)
通俗理解:Agent的"大脑",比如GPT-4、Claude等。就像一个博学的顾问,能理解语言、生成回复、做推理。
常见的LLM:
- OpenAI GPT-4 / GPT-3.5
- Anthropic Claude
- Google Gemini
- Meta LLaMA
- 国产:通义千问、文心一言等
个人理解:
LLM本质上是超大规模的神经网络,是Agent的大脑和决策中心。在我使用Cursor的体验中,LLM(如Claude)负责理解我的需求,然后分析上下文、找到相关代码段、规划修改方案。LLM的核心能力体现在三个方面:
1、 理解需求(把我的自然语言转化为具体任务)。
2、 拆分任务(把复杂需求分解成可执行的步骤)。
3、 规划执行策略(决定调用哪些工具、按什么顺序执行)。需要注意的是,LLM负责"思考和决策",而具体的"执行操作"(如读取文件、修改代码)是通过调用工具(Tools)来完成的。简单来说:LLM = 大脑(规划),Tools = 手脚(执行),两者结合才构成完整的Agent系统。
3. Prompt (提示词)
通俗理解:你和AI对话的"说明书"。写得越清楚,AI理解得越准确。
示例对比:
- ❌ 差的Prompt:“总结这篇文章”
- ✅ 好的Prompt:“用3个要点总结这篇文章的核心观点,每个要点不超过50字,使用项目符号”
Prompt工程技巧:
- 明确角色(你是一个专业的…)
- 具体任务描述
- 提供示例(Few-shot Learning)
- 设定输出格式
- 加入思维链(Chain of Thought)
个人理解:
Prompt(提示词)是人类向AI下达指令的方式,本质上是一种新型编程范式。就像传统编程用代码(严格语法)与计算机交流,Prompt工程用自然语言(灵活表达)与AI交流,是自然语言编程的核心。关键区别在于:
- 传统编程:人 → 代码(严格语法、精确格式)→ 编译器 → 计算机执行
- Prompt工程:人 → 自然语言(灵活表达、语义理解)→ LLM → AI生成输出
两者的共同点是都在"编程",区别是:
- 传统编程:写的是执行逻辑(告诉计算机怎么做)
- Prompt工程:写的是需求描述(告诉AI做什么)
这标志着编程范式从"写代码"进化到"写需求"。
在实际使用Cursor时的体会:
❌ 模糊的Prompt(效果差):
"帮我修改这个函数"
→ Cursor不知道改什么、怎么改、为什么改
✅ 清晰的Prompt(效果好):
"重构login()函数:
1. 添加邮箱格式验证
2. 密码长度至少8位
3. 添加错误处理和提示信息
4. 保持现有的API调用逻辑不变"
→ Cursor理解明确,修改精准
我的Prompt实战技巧:
- 明确角色:“你是一个资深Python开发者”(设定专业背景)
- 具体需求:“在第50行添加try-catch”(而不是"处理错误")
- 给出约束:“保持现有代码风格”、“不要改动其他函数”
- 提供上下文:“这个项目使用FastAPI框架”(帮助AI理解环境)
核心感悟:Prompt质量直接决定AI输出质量。好的Prompt = 需求文档 + 执行指南,越详细越好,让AI不需要猜测你的意图。
深入理解:AI如何理解Prompt?(向量化机制)
很多人好奇,AI是如何"看懂"我们写的Prompt的?答案是向量化:
你的Prompt: "帮我重构login()函数"↓[分词/Tokenization]↓["帮我", "重构", "login", "()", "函数"]↓[向量化/Embedding]↓[0.234, -0.567, 0.891, ...] (每个词变成1536维向量)↓[神经网络处理]↓AI理解:这是一个代码重构请求
为什么好的Prompt效果更好?从向量化角度解释:
❌ 模糊Prompt:“修改函数”
- 向量表示模糊,语义信息少
- AI需要"猜测"你的意图
- 相似度计算不精确
✅ 清晰Prompt:“重构login()函数,添加邮箱验证和错误处理”
- 关键词丰富:[“重构”, “login”, “邮箱验证”, “错误处理”]
- 每个关键词的向量都提供明确的语义信息
- AI通过向量相似度精确匹配相关知识
- 生成的代码更符合需求
实际例子:向量如何影响理解
# Prompt 1: "处理错误"
向量特征:[通用, 模糊, 多种可能]
AI理解:可能是try-catch?可能是日志?可能是提示?# Prompt 2: "添加try-catch异常处理,捕获网络超时,记录到日志"
向量特征:[具体, 明确, 包含技术细节]
关键向量:- "try-catch" → [异常处理机制]- "网络超时" → [特定异常类型]- "日志" → [logging操作]
AI理解:明确知道要做什么,怎么做
关键启示:
- Prompt中的每个词都会被向量化
- 关键词越多、越具体,生成的向量越精确
- AI通过向量相似度在海量知识中检索匹配内容
- 这就是为什么"详细的Prompt"效果远好于"简单的Prompt"
所以,写好Prompt的本质是:给AI提供足够多的、精确的语义信息(向量),让它能准确理解和检索相关知识。
