ai大模型学习1
一、监督学习:老师带学生的模式
核心机制:模型像学生一样,通过“带答案的习题”(即带标签的数据集)学习规律。例如,给模型看1000张标有“猫”“狗”的图片,让它学会区分两者的特征24。
典型任务:
分类:判断邮件是否为垃圾邮件(答案选项明确)8。
回归:预测房价(输出连续数值,如300万、500万)4。
特点:依赖人工标注的标签,模型目标是尽可能接近标准答案35。
二、无监督学习:自己翻书找规律
核心机制:模型像独自阅读无注释的书籍(未标注数据),自主发现隐藏模式。例如,分析大量用户购物记录,自动将消费习惯相似的人分为同一群体35。
典型任务:
聚类:客户分群(无预设类别,模型自行定义分组)8。
降维:将高维数据压缩为2D/3D可视化(如PCA算法)6。
特点:无标准答案,侧重探索数据内在结构,适合数据标注成本高的场景58。
三、预训练:先“博览群书”再专项训练
核心机制:模型先通过海量无标注数据(如互联网文本)进行“通识教育”,学习通用特征表示;再针对具体任务(如问答系统)用少量标注数据微调6。
实现方式:
自监督学习:设计“填空题”任务(如遮挡部分文字让模型预测),利用数据自身生成伪标签6。
典型应用:GPT/BERT等大模型,先通过文本预测任务预训练,再适配下游任务67。
优势:减少对标注数据的依赖,提升模型泛化能力6。
生成生成式文本的大模型过程
文本—>token数字—>根据token id结合最有可能的概率,逐渐生成一个最佳答案