AI 大模型应用开发实战营-毕业总结
这段时间的学习让我对大语言模型从认知到应用有了一个比较完整的了解。最初是从AI发展的历史背景入手,理解了深度学习和Transformer的兴起背景,接着逐步深入到GPT的结构、训练方法和模型原理。注意力机制是整个Transformer的核心,通过一些简单的例子,比如“我去了几次咖啡店”,让我更直观地理解了模型是如何识别重点信息的。
在具体模型部分,从GPT-1到GPT-4的演化过程,我对它们的能力边界、训练策略(比如In-Context Learning、Few-Shot Learning、SFT + PPO训练)有了比较清晰的认识。也尝试使用了OpenAI的API,包括对话接口、Function Calling、Assistants API 等等,逐步熟悉了与模型交互的不同方式,以及如何通过提示工程、思维链等方式去优化模型输出。
动手实践是这段学习中最有收获的部分。从Embedding 到向量检索、再到 LangChain 的链式调用、Agent 编排,逐步搭建出翻译工具、问答系统、RAG 应用、简单的多轮对话体。我更理解了提示如何引导模型、上下文如何影响输出,也能评估哪些问题适合用模型来处理,哪些则需要结合外部工具或知识库。
整体来看,这次学习帮助我建立了大模型应用开发相关的知识体系,也提升了工程落地能力。学习大模型应用开发已经不仅是技术探索,而是应对行业变化的刚需。大模型正快速融入各类系统,掌握其原理和应用方式,已经成为基本技能,而非附加项。