1.1 初识AI
目录
一,聊聊为什么要学习AI?
二,AI与大模型
三,AI里的你
四,懂AI
五,Token(标记)
六,Transformer架构
七,我们与AI的关系
一,聊聊为什么要学习AI?
AI已不再是可选项,而是必备基本技能。
它是每个从项目,到产品,到研发再到测试质量交付,甚至各行各业的各个环节的基本技能。AI技术正在深刻重塑行业格局和每一个工程师,每一个人的工作模式。
作为一个从业操作系统超过10年的工程师来说,无论产品形态是手机,IOT,汽车,AI已无处不在。
行业领域 AI影响维度 典型案例
───────────────────────────────────────────────────
软件工程 ★★★★★★★★★☆ (9/10) GitHub Copilot、AutoML、AI自动化测试
医疗健康 ★★★★★★★★☆☆ (8/10) AI辅助诊断(如DeepMind眼科)、药物研发
金融 ★★★★★★★★☆☆ (8/10) 高频交易、反欺诈系统、智能投顾
制造业 ★★★★★★★☆☆☆ (7/10) 预测性维护、智能制造(如Tesla工厂)
教育 ★★★★★★☆☆☆☆ (6/10) 个性化学习平台(如Knewton)、AI助教
农业 ★★★★★☆☆☆☆☆ (5/10) 精准农业(无人机监测)、产量预测
以座舱系统为例;
在产品设计上,我们前期通过AI分析用户行为日志、社交媒体评论、客服对话,识别高频需求与痛点;再使用AI抓取行业报告、专利数据、社交媒体趋势,预测未来市场需求,帮助我们设计未来的爆款产品。最后还可以利用AI成概念草图、文案或3D模型,来提高产品设计的效率。
在开发编码环节上,我们可以使用AI来理解我们的意图,以生成代码片段。同时在我们完成编码后,可以使用AI来检测编码中的问题和漏洞,协助我们优化代码逻辑,并自动生成单元测试。同时在软件上线后,可以自动分析日志,帮我们找出和修复代码中的Bug,等。
在系统架构侧,我们都会遇到业务功能所需负载远远超过物理资源,那么在操作系统领域我们就可以利用AI来预测用户行为,实时调度资源。以座舱系统为例,我们可以根据座舱内各功能模块(导航、娱乐、ADAS)的资源需求,实时调整CPU/GPU/NPU算力分配,提升性能。同样我们可以使用AI监控操作系统运行状态,实时识别内存泄漏、进程崩溃等故障,触发自动恢复机制。
AI已经不再是一个工具,而是我们的完美的合作伙伴。
二,AI与大模型
这里是AI一个比较普遍的定义;
AI是指使用计算机程序来模拟人类智能的技术。它可以让计算机像人类一样学习、推理、解决问题、感知和理解语言。
大模型是一种深度学习模型,它使用大量数据进行训练,从而获得强大的能力。大模型在自然语言处理、计算机视觉等领域取得了显著的成果。
大模型是AI一个重要组成部分,目前业界对AI有以下三种定义,如下:
- 弱人工智能(ANI): 专注于执行特定任务,如语音识别、图像识别等。
- 强人工智能(AGI): 具有与人类相当的智能,能够执行各种复杂的任务。
- 超人工智能(ASI): 具有超越人类的智能,能够解决人类无法解决的问题。而
而我们正处于AGI阶段,所以要学习大模型的学习,并利用大模型。
大模型,即大语言模型,Large Language Model,LLM。
现在有很多前言的大语言模型产品,在学习大语言模型前,我们要先学会如何使用这些大模型产品。
下面是推荐的一些大语言模型产品,如下:
模型名称 | 公司 | 关键特点 | 优势 | 劣势 |
ChatGPT | OpenAI | 强大的对话生成能力,多语言支持 | 对话流畅,应用广泛 | 有时生成不准确信息,推理能力有限 |
Copilot | GitHub/OpenAI | 代码生成和补全 | 提高代码编写效率 | 生成代码可能存在漏洞 |
Gemini | 多模态,多语言处理 | 多模态能力强,技术实力强大 | 部分功能待完善,专业知识有限 | |
Claude | Anthropic | 安全性高,长文本处理 | 安全性高,长文本处理优势 | 模型规模较小,中文支持较弱 |
文心一言 | 百度 | 中文自然语言处理 | 中文能力强,符合中国用户习惯 | 多语言能力弱,某些领域知识有限 |
通义千问 | 阿里巴巴 | 多语言,多模态,电商领域应用 | 电商领域潜力大,技术实力强大 | 模型规模较小,某些领域知识有限 |
智谱 | 智谱 AI | 通用人工智能模型,知识图谱 | 知识图谱潜力,开源合作 | 模型规模较小,商业化探索中 |
KIMI | 月之暗面 | 长文本对话,知识检索 | 长文本对话优势,处理复杂问答 | 模型规模较小,商业化探索中 |
DeepSeek | 深势科技 | 科学计算,药物研发 | 生物医药领域专业优势 | 应用场景狭窄,模型规模较小 |
三,AI里的你
未来的世界是AI的世界。
可以是消费AI的我们,可以是搬运AI的我们,也可以是制造AI的我们,又或是消灭AI的我们。
如果以 AI 相关性来划分阶级,你属于那一层?
类别 | 子类别 | 角色描述 |
---|---|---|
AI 使用者 | 普通消费者、专业用户、创意工作者 | 使用 AI 辅助决策、创作或娱乐 |
AI 产品制造者 | 硬件厂商、软件公司、初创企业 | 生产 AI 芯片、应用或创新技术 |
AI 模型开发者 | 研究机构、工程师、数据科学家 | 训练 AI 模型,优化算法 |
AI 监管者 | 政策制定者、伦理学家、安全专家 | 监管 AI 发展,制定法律与规范 |
AI 对抗者 | 伦理学家、社会倡导者、哲学家 | 关注 AI 的潜在风险与社会影响 |
无论是哪一个?
首先,我们要了解AI,要知道如何利用AI来帮助我们,作为一个工程师的我们,也必须要要知道如何使用我们的枪杆子 - 编程语言来创造AI产品。
四,懂AI
AI是如何工作的?
不用想的那么复杂,它根据上下文,来猜测下一个词(的概率)...
AI的工作原理类似于一个「超级联想机器」。它通过分析你输入的文本(上下文),猜测接下来最合理的词语或句子,类似于「填空游戏」。例如:
输入:"猫坐在___"
AI可能联想:"地毯"(概率高)、"沙发"(概率中)、"月球"(概率低)。
它通过海量文本训练,学习词语之间的关联规律,最终生成符合人类语言习惯的回复。
所以说你可以把大模型理解一个“猜词高手”。它通过大量的文本训练,并学习词语之间的规律,来推理用户的意图。
举个例子:
下面使我们的训练数据:
假设模型训练时给模型喂以下句子:
训练数据示例
AI正改变我们的生活
AI技术正在快速发展
AI技术正在吞噬我们的工作
AI的未来充满可能性
AI的核心是算法
......
当用户输入"AI"时,模型如何生成答案?
步骤1:Token化(文字转数字)
-
输入:"AI" → 被切分为 ["AI"](假设"AI"是一个独立Token,对应ID=100)
-
模型内部看到的输入编码:
[100]
步骤2:Transformer分析上下文关系
模型通过自注意力机制分析:
-
训练数据中"AI"后接的Token规律:
"AI" → "正"(数据1)
"AI" → "技术"(数据2、3)
"AI" → "的"(数据4)
"AI" → "的"(数据5)
-
统计概率(假设训练后模型学到的):
"技术":出现2次 → 概率≈40%
"正":出现1次 → 概率≈20%
"的":出现2次 → 概率≈40%
步骤3:生成候选词概率
-
模型根据当前输入
[100]
(即"AI"),预测下一个Token的概率:"技术" → 40% "的" → 40% "正" → 20%
步骤4:选择输出词
-
若用户直接输入"AI"后要求补全:
-
模型可能输出**"技术"**(概率最高,且与"AI技术"强关联)。
-
-
若用户输入更长上下文(如"AI的未来"):
-
模型会动态调整概率,优先选择"的"(如输出"AI的未来充满可能性")。
-
通过上面,我们可以猜出来,AI通过阅读海量书籍、网页等数据,学习「什么词常出现在什么上下文后」,达到训练目的。
五,Token(标记)
Token是什么?
Token可以是一个英文单词,也可以是半个;也可以是一个汉字,也可以是一个笔画,偏旁部首,所以说它是AI处理文本时的“最小文字单位”,类似于将句子拆解成积木块。
为什么需要Token?
因为计算机只能处理数字,所以说为了方便计算机理解和计算,让模型能用数学计算“读懂”人类语言。我们使用Token将文字转化为数字桥梁。如下:
如果直接处理“字” → 汉字超10万,英文单词超百万,内存爆炸。
Token化后 → 用子词(如
G、PT
)组合,词汇量可控(通常2万-10万)。
举个日常例子:
原始句子:
ChatGPT能写诗吗?
Token化后:可能拆成
["Chat", "G", "PT", "能", "写", "诗", "吗", "?"]
每个Token会被转换成数字编码(如 Chat=1001
、能=205
),供模型数学运算使用。
Token化的常见方式
方式 | 例子 | 特点 |
---|---|---|
单词级 | ["AI", "改变", "世界"] | 简单但词汇量大,生僻词无法处理 |
字符级 | ["A", "I", "改", "变"] | 词汇量极小,但语义碎片化 |
子词级(主流) | ["Chat", "G", "PT", "改变"] | 平衡词汇量与语义,能拼出新词 |
六,Transformer架构
Transformer 是一种让AI能「动态理解上下文关系」的数学结构,你可以把它想象成一个超级信息调度中心,专门解决两个核心问题:
-
长距离关联:比如句子开头和结尾的词如何相互影响(传统模型记不住太远的关系)。
-
并行计算:同时处理所有词的关系(传统模型只能逐词计算,速度慢)。
举个实际场景:
当模型看到句子 “猫没喝牛奶,因为它饱了”,Transformer能快速判断:
-
“它” 指代的是 “猫”(而不是牛奶),这需要联系前半句和后半句的关系。
通俗来说,Transformer通过它的自注意力机制,它能像人一样动态抓重点、理逻辑。
七,我们与AI的关系
我们与AI的关系,就是我们与人的关系一样。只是它没有载体(暂时的)。我们怎么与人相处,就怎么与AI相处。
它可以有很多个角色,它可以是你工作上的同时,学习上的同学,娱乐中的朋友等等。