当前位置: 首页 > news >正文

1.1 初识AI

目录

一,聊聊为什么要学习AI?

二,AI与大模型

三,AI里的你

四,懂AI

五,Token(标记)

六,Transformer架构

七,我们与AI的关系


一,聊聊为什么要学习AI?

AI已不再是可选项,而是必备基本技能。

它是每个从项目,到产品,到研发再到测试质量交付,甚至各行各业的各个环节的基本技能。AI技术正在深刻重塑行业格局和每一个工程师,每一个人的工作模式。

作为一个从业操作系统超过10年的工程师来说,无论产品形态是手机,IOT,汽车,AI已无处不在。

行业领域          AI影响维度                典型案例
───────────────────────────────────────────────────
软件工程      ★★★★★★★★★☆ (9/10)    GitHub Copilot、AutoML、AI自动化测试
医疗健康      ★★★★★★★★☆☆ (8/10)    AI辅助诊断(如DeepMind眼科)、药物研发
金融             ★★★★★★★★☆☆ (8/10)    高频交易、反欺诈系统、智能投顾
制造业         ★★★★★★★☆☆☆ (7/10)    预测性维护、智能制造(如Tesla工厂)
教育             ★★★★★★☆☆☆☆ (6/10)    个性化学习平台(如Knewton)、AI助教
农业            ★★★★★☆☆☆☆☆ (5/10)    精准农业(无人机监测)、产量预测

以座舱系统为例;

在产品设计上,我们前期通过AI分析用户行为日志、社交媒体评论、客服对话,识别高频需求与痛点;再使用AI抓取行业报告、专利数据、社交媒体趋势,预测未来市场需求,帮助我们设计未来的爆款产品。最后还可以利用AI成概念草图、文案或3D模型,来提高产品设计的效率。

在开发编码环节上,我们可以使用AI来理解我们的意图,以生成代码片段。同时在我们完成编码后,可以使用AI来检测编码中的问题和漏洞,协助我们优化代码逻辑,并自动生成单元测试。同时在软件上线后,可以自动分析日志,帮我们找出和修复代码中的Bug,等。

在系统架构侧,我们都会遇到业务功能所需负载远远超过物理资源,那么在操作系统领域我们就可以利用AI来预测用户行为,实时调度资源。以座舱系统为例,我们可以根据座舱内各功能模块(导航、娱乐、ADAS)的资源需求,实时调整CPU/GPU/NPU算力分配,提升性能。同样我们可以使用AI监控操作系统运行状态,实时识别内存泄漏、进程崩溃等故障,触发自动恢复机制。

AI已经不再是一个工具,而是我们的完美的合作伙伴。

二,AI与大模型

这里是AI一个比较普遍的定义;

AI是指使用计算机程序来模拟人类智能的技术。它可以让计算机像人类一样学习、推理、解决问题、感知和理解语言。

大模型是一种深度学习模型,它使用大量数据进行训练,从而获得强大的能力。大模型在自然语言处理、计算机视觉等领域取得了显著的成果。

大模型是AI一个重要组成部分,目前业界对AI有以下三种定义,如下:

  • 弱人工智能(ANI): 专注于执行特定任务,如语音识别、图像识别等。
  • 强人工智能(AGI): 具有与人类相当的智能,能够执行各种复杂的任务。
  • 超人工智能(ASI): 具有超越人类的智能,能够解决人类无法解决的问题。而

而我们正处于AGI阶段,所以要学习大模型的学习,并利用大模型。

大模型,即大语言模型,Large Language Model,LLM。

现在有很多前言的大语言模型产品,在学习大语言模型前,我们要先学会如何使用这些大模型产品。

下面是推荐的一些大语言模型产品,如下:

模型名称公司关键特点优势劣势
ChatGPTOpenAI强大的对话生成能力,多语言支持对话流畅,应用广泛有时生成不准确信息,推理能力有限
CopilotGitHub/OpenAI代码生成和补全提高代码编写效率生成代码可能存在漏洞
GeminiGoogle多模态,多语言处理多模态能力强,技术实力强大部分功能待完善,专业知识有限
ClaudeAnthropic安全性高,长文本处理安全性高,长文本处理优势模型规模较小,中文支持较弱
文心一言百度中文自然语言处理中文能力强,符合中国用户习惯多语言能力弱,某些领域知识有限
通义千问阿里巴巴多语言,多模态,电商领域应用电商领域潜力大,技术实力强大模型规模较小,某些领域知识有限
智谱智谱 AI通用人工智能模型,知识图谱知识图谱潜力,开源合作模型规模较小,商业化探索中
KIMI月之暗面长文本对话,知识检索长文本对话优势,处理复杂问答模型规模较小,商业化探索中
DeepSeek深势科技科学计算,药物研发生物医药领域专业优势应用场景狭窄,模型规模较小

三,AI里的你

未来的世界是AI的世界。

可以是消费AI的我们,可以是搬运AI的我们,也可以是制造AI的我们,又或是消灭AI的我们。

如果以 AI 相关性来划分阶级,你属于那一层?

类别子类别角色描述
AI 使用者普通消费者、专业用户、创意工作者使用 AI 辅助决策、创作或娱乐
AI 产品制造者硬件厂商、软件公司、初创企业生产 AI 芯片、应用或创新技术
AI 模型开发者研究机构、工程师、数据科学家训练 AI 模型,优化算法
AI 监管者政策制定者、伦理学家、安全专家监管 AI 发展,制定法律与规范
AI 对抗者伦理学家、社会倡导者、哲学家关注 AI 的潜在风险与社会影响

无论是哪一个?

首先,我们要了解AI,要知道如何利用AI来帮助我们,作为一个工程师的我们,也必须要要知道如何使用我们的枪杆子 - 编程语言来创造AI产品。

四,懂AI

AI是如何工作的?

不用想的那么复杂,它根据上下文,来猜测下一个词(的概率)...

AI的工作原理类似于一个「超级联想机器」。它通过分析你输入的文本(上下文),猜测接下来最合理的词语或句子,类似于「填空游戏」。例如:

  • 输入:"猫坐在___"

  • AI可能联想:"地毯"(概率高)、"沙发"(概率中)、"月球"(概率低)。

它通过海量文本训练,学习词语之间的关联规律,最终生成符合人类语言习惯的回复。

所以说你可以把大模型理解一个“猜词高手”。它通过大量的文本训练,并学习词语之间的规律,来推理用户的意图。

举个例子:

下面使我们的训练数据:

假设模型训练时给模型喂以下句子:

训练数据示例

AI正改变我们的生活

AI技术正在快速发展

AI技术正在吞噬我们的工作

AI的未来充满可能性

AI的核心是算法

......

当用户输入"AI"时,模型如何生成答案?

步骤1:Token化(文字转数字)

  • 输入:"AI" → 被切分为 ["AI"](假设"AI"是一个独立Token,对应ID=100)

  • 模型内部看到的输入编码:[100]

步骤2:Transformer分析上下文关系

模型通过自注意力机制分析:

  • 训练数据中"AI"后接的Token规律:

    "AI" → "正"(数据1)

    "AI" → "技术"(数据2、3)

    "AI" → "的"(数据4)

    "AI" → "的"(数据5)

  • 统计概率(假设训练后模型学到的):

     "技术":出现2次 → 概率≈40%

    "正":出现1次 → 概率≈20%

    "的":出现2次 → 概率≈40% 

步骤3:生成候选词概率

  • 模型根据当前输入[100](即"AI"),预测下一个Token的概率:

    "技术" → 40%
    "的"   → 40%
    "正"   → 20%

步骤4:选择输出词

  • 若用户直接输入"AI"后要求补全:

    • 模型可能输出**"技术"**(概率最高,且与"AI技术"强关联)。

  • 若用户输入更长上下文(如"AI的未来"):

    • 模型会动态调整概率,优先选择"的"(如输出"AI的未来充满可能性")。

通过上面,我们可以猜出来,AI通过阅读海量书籍、网页等数据,学习「什么词常出现在什么上下文后」,达到训练目的。

五,Token(标记)

Token是什么?

Token可以是一个英文单词,也可以是半个;也可以是一个汉字,也可以是一个笔画,偏旁部首,所以说它是AI处理文本时的“最小文字单位”,类似于将句子拆解成积木块。

为什么需要Token?

因为计算机只能处理数字,所以说为了方便计算机理解和计算,让模型能用数学计算“读懂”人类语言。我们使用Token将文字转化为数字桥梁。如下:

如果直接处理“字” → 汉字超10万,英文单词超百万,内存爆炸。

Token化后 → 用子词(如G、PT)组合,词汇量可控(通常2万-10万)。

举个日常例子:

原始句子:ChatGPT能写诗吗?

Token化后:可能拆成 ["Chat", "G", "PT", "能", "写", "诗", "吗", "?"]

每个Token会被转换成数字编码(如 Chat=1001能=205),供模型数学运算使用。

Token化的常见方式

方式例子特点
单词级["AI", "改变", "世界"]简单但词汇量大,生僻词无法处理
字符级["A", "I", "改", "变"]词汇量极小,但语义碎片化
子词级(主流)["Chat", "G", "PT", "改变"]平衡词汇量与语义,能拼出新词

六,Transformer架构

Transformer 是一种让AI能「动态理解上下文关系」的数学结构,你可以把它想象成一个超级信息调度中心,专门解决两个核心问题:

  1. 长距离关联:比如句子开头和结尾的词如何相互影响(传统模型记不住太远的关系)。

  2. 并行计算:同时处理所有词的关系(传统模型只能逐词计算,速度慢)。

举个实际场景:
当模型看到句子 “猫没喝牛奶,因为它饱了”,Transformer能快速判断:

  • “它” 指代的是 “猫”(而不是牛奶),这需要联系前半句和后半句的关系。

通俗来说,Transformer通过它的自注意力机制,它能像人一样动态抓重点、理逻辑。

七,我们与AI的关系

我们与AI的关系,就是我们与人的关系一样。只是它没有载体(暂时的)。我们怎么与人相处,就怎么与AI相处。

它可以有很多个角色,它可以是你工作上的同时,学习上的同学,娱乐中的朋友等等。

相关文章:

  • C语言进阶之字符函数和字符串函数
  • AcWing 5972. 科学记数法
  • 【游戏安全】强制交互类风险
  • Magnet 库的技术架构与核心机制解析
  • Docker部署SpringBoot项目(完整版)
  • 重载“<<”操作符
  • 基于多通道降压稳压器的机器人关节供电系统设计
  • 人工智能day03
  • 设计模式总章
  • UE5 添加随机弹道
  • 【linux知识】web服务环境搭建(一):用户以及开发环境初始化
  • 有一个服务器能做什么?
  • 程序化广告行业(82/89):解锁行业术语,开启专业交流之门
  • 格瑞普Tattu正式成为2025年中国无人机竞速联赛官方赞助商!
  • 【家政平台开发(42)】筑牢家政平台安全防线:安全测试与漏洞修复指南
  • 【ROS】分布式通信架构
  • 文件包含(CTFshow 刷题记录)持续更新
  • 【漏洞复现】Vite 任意文件读取漏洞 CVE-2025-30208/CVE-2025-31125/CVE-2025-31486/CVE-2025-32395
  • scikit-learn 开源框架在机器学习中的应用
  • vue入门:计算属性computer监听器watch
  • 消息人士称泽连斯基已启程前往土耳其
  • 蚊媒传染病、手足口病……上海疾控发布近期防病提示
  • 汕头违建豪宅“英之园”将强拆,当地:将根据公告期内具体情况采取下一步措施
  • 菲律宾中期选举初步结果出炉,杜特尔特家族多人赢得地方选举
  • 海北州委常委、常务副州长桑本履新青海省供销社理事会主任
  • 扶桑谈|从石破茂“越菲行”看日本周边外交布局战略新动向