半监督学习,少样本学习和零样本学习
一、核心定义与目标
半监督学习:
目标:利用大量无标签数据和少量有标签数据,训练出比仅使用有标签数据性能更好的模型。
核心思想:基于“聚类假设”(同一聚类下的样本更可能有相同标签)和“流形假设”(高维数据实际上分布在一个低维流形上),利用无标签数据的分布来引导决策边界穿过稀疏区域。
少样本学习:
目标:让模型在只看到每个新类别极少量的样本(如1-5个) 后,就能正确识别该类别。
核心思想:“学会如何学习”。模型不是直接学习从图像到标签的映射,而是通过一个“元学习”过程,在大量已有任务上学习一个通用的、可迁移的特征空间或优化策略,从而能够快速适应新任务。
零样本学习:
目标:让模型能够识别在训练集中从未出现过的类别。
核心思想:构建一个“语义空间”作为桥梁。模型学习将看到的图像(可见类)和未看到的图像(不可见类)映射到同一个语义空间(例如,由属性、词向量等构成),通过在这个空间中的相似度比较来进行推理。
二、关系:一个解决数据稀缺的连续谱系
我们可以将这三种范式看作一个应对“标注数据从少到无”的连续策略:
标注数据量:半监督 (少量) -> 少样本 (极少) -> 零样本 (无)
它们的关系可以从以下几个层面理解:
1. 哲学思想的统一:利用“先验知识”
三者都承认,仅靠有限的监督信号(有标签数据)不足以让模型很好地泛化,因此必须引入额外的“先验知识”或“归纳偏置”。
半监督学习 的先验是 “数据的平滑性/结构性”,即无标签数据本身所蕴含的分布信息。
少样本学习 的先验是 “任务结构的相似性”,即从众多小任务中学到的元知识可以迁移到新任务上。
零样本学习 的先验是 “人类知识的语义描述”,即用属性或语言模型定义的语义空间来关联可见与不可见类别。
2. 技术上的交叉与融合
在现代深度学习中,这些范式并非泾渭分明,而是相互借鉴、深度融合。
半监督学习为少/零样本学习提供基础
一个强大的特征提取器是少/零样本学习成功的关键。半监督学习正是训练强大特征提取器的绝佳手段。例如:在少样本学习任务中,可以先在包含大量无标签数据的基类数据集上用半监督学习方法进行预训练,得到一个泛化能力极强的特征提取 backbone,然后再进行元学习微调。
一致性正则、伪标签等半监督技术可以直接用于丰富少样本学习中的支持集,或增强查询集样本的鲁棒性。
少样本学习是半监督学习的“高级阶段”
你可以将少样本学习看作一个 “面向任务的、更极致的半监督学习” 。传统的半监督学习假设无标签数据和有标签数据来自同一个分布(同一批类别)。而少样本学习通过元学习的框架,将这种“利用少量标签进行学习”的能力本身提炼成了一个模型,使其能够泛化到全新的类别分布上。零样本学习与少样本学习的边界日益模糊
广义零样本学习:模型在测试时需要同时识别可见类和不可见类。这通常需要利用半监督学习技术,在训练时更好地利用所有无标签/可见类数据来校准模型,防止模型完全偏向可见类。
少样本学习作为零样本学习的增强:纯粹的零样本学习很难,因为语义描述和视觉特征之间存在“领域鸿沟”。一个很自然的思路是:“零样本学习 + 少量样本 = 少样本学习”。即,先通过零样本学习获得一个初始模型,然后只用目标类别的1-5个样本进行快速微调,可以极大地提升模型性能。这被称为少样本微调。
3. 协同工作的研究范式
一个先进的图像处理系统往往会协同使用这三种思想:
预训练阶段(利用半监督):使用如SimCLR, MoCo等自监督学习(可视为一种特殊的无监督/半监督学习)在海量无标签图像(如ImageNet)上训练一个通用的视觉编码器。
元学习阶段(实现少样本能力):在包含许多类别的数据集上,通过元学习任务(如Prototypical Networks, MAML)训练模型,使其学会如何比较和快速适应。
推理与扩展阶段(引入零样本思想):
少样本场景:给定新类的几个样本,模型利用学到的比较能力进行分类。
零样本场景:如果遇到完全没有样本的新类,模型可以接入一个语义空间(如CLIP模型所做的那样),通过文本描述(如“一种蓝色的、会唱歌的鸟”)来识别这个类别。CLIP模型本身就是零样本学习的典范,而其强大的泛化能力又使其在少样本设定下表现优异。
三、三者类比

一个简单的比喻:
半监督学习:像是一个学生通过阅读大量的未解析的习题(无标签数据) 和少量的带详解的例题(有标签数据),来领悟题目的通用解法和题型结构。
少样本学习:像是这个学生已经参加了多次模拟考试(元训练),学会了快速分析新题型的方法。现在拿到一道只有最终答案的新题(支持集),他就能迅速反推出解题思路,解答同类题目(查询集)。
零样本学习:像是学生没有见过某种题型,但老师给了他一个知识概念图(语义空间),告诉他新题型考察的是哪些核心概念(属性)的组合,他通过理解概念来尝试解答。
四、研究现状

五、研究切入点
半监督学习:致力于提升模型在真实复杂场景下的鲁棒性。
你可以探索新的协同训练机制,例如通过异构模型架构或差异化的学习目标,从根本上避免模型同质化。
另一个方向是研究如何更好地融合多模态数据。例如,探索在半监督框架下,如何有效对齐并利用CT和MRI影像的互补信息。
少样本学习:核心在于让模型学到的知识更稳固、更通用。
一个重要的着手点是解决灾难性遗忘。可以研究不依赖原始数据的知识保留方法,例如基于特征空间的样本生成或模型正则化技术。
可以尝试突破单一空间域的分析,探索引入频域信息等新视角,以捕获在有限样本下容易被忽略的全局模式和结构信息。
零样本学习:关键在于加强模型对语义信息的理解和泛化能力。
可以关注组合零样本学习这一方向,研究如何让模型理解基本概念(属性和对象)后,能识别它们无穷的新组合。
积极利用强大的多模态基础模型(如CLIP)。研究如何通过提示工程、适配器微调等方式,解锁其在特定零样本任务上的潜力。
六、研究途径
夯实基础(1-4周)
深入学习你所选方向的核心理论与经典模型。少样本和零样本学习可精读代表性综述。
熟练掌握 PyTorch 或 TensorFlow 等深度学习框架,并尝试在经典数据集上复现一些简单模型。
跟踪前沿与实验探索(2-3个月)
持续关注顶级会议(如 CVPR, ICCV, MICCAI, AAAI)的最新论文,从中获取灵感。
选择1-2篇思路相近的顶会论文进行精读和复现,这能让你深刻理解模型的细节与工程实现难点。
创新实践与总结(持续)
基于你对基线模型不足之处的分析,提出自己的改进思路,并进行充分的消融实验和对比实验。
将得到验证的创新想法和完整的实验分析撰写成文,清晰的动机、严谨的实验和深入的讨论是优秀论文的关键。
七、各方向核心理论与经典模型
1、半监督学习
核心理论:
平滑性假设:如果两个样本在特征空间中距离很近,那么它们的标签很可能相同。这是许多图半监督方法的基础。
聚类假设:数据分布存在聚类结构,同一聚类中的样本更可能共享同一标签。决策边界应尽量避免穿过数据的高密度区域。
流形假设:高维数据实际上分布在一个低维的流形上。在这个流形上,样本的相似度可以通过近邻关系来度量。
经典模型:

2、少样本学习
核心理论:
元学习 / “学会学习”:核心思想是模型在大量相似的“任务”上进行训练,从而获得一种能够快速适应新任务的能力。每个任务都是一个少样本学习问题。
度量学习:目标是学习一个嵌入函数,将样本映射到特征空间,使得相似类别样本的距离近,不同类别样本的距离远。在预测时,比较新样本与少数支持集样本的相似度。
经典模型:

3、零样本学习
核心理论:
语义空间嵌入:核心思想是建立一个共享的语义空间,将视觉特征和类别语义描述(如属性、词向量)都映射到这个空间中。通过在这个空间里计算相似度,实现从已见类到未见类的知识迁移。
生成式模型:为了解决领域漂移问题,这类方法利用已见类的数据,学习一个从语义描述生成对应视觉特征的模型。然后为未见类生成虚拟特征样本,将ZSL问题转化为传统的监督学习问题。
经典模型:

八、如何利用这些知识开展研究
基础复现:从每个类别中选择1-2个最经典、最基础的模型(如半监督的 FixMatch, 少样本的 Prototypical Networks, 零样本的 DEM 或 f-CLSWGAN),在标准数据集上尝试复现。这个过程会让你深刻理解其优缺点。
阅读综述:每个领域都有优秀的综述文章,它们能帮你构建完整的知识树。
半监督学习:A survey on semi-supervised learning
少样本学习:A survey of few-shot learning
零样本学习:Zero-shot learning - A comprehensive evaluation of the good, the bad and the ugly
组合与创新:现代研究往往走向交叉。你可以思考:
能否将少样本学习中的元学习思想,用于改进半监督学习中对未标记数据的选择策略?
能否将零样本学习中的生成式方法(如GAN),用于为少样本学习任务生成更多样的样本,以缓解数据稀缺?
如何将 CLIP 这种强大的多模态先验,作为你半监督或小样本任务的特征提取器或初始化模型?
九、工具集
1核心工具栈:深度学习三件套
这是你开展研究的基础设施,建议优先掌握:

行动建议:如果你刚刚开始,组合 Python + PyTorch + VS Code/Jupyter 是目前最高效、最受社区欢迎的选择。
2核心研究工具箱
针对半监督、少样本、零样本学习,以下库能极大提升你的复现效率:
1. 基础模型与算法库

2. 特定领域库

3数据集与实验管理
1. 标准数据集
复现时需要公认的数据集进行性能对比:
图像分类(通用): CIFAR-10/100, ImageNet, SVHN。
少样本学习: Mini-ImageNet, Tiered-ImageNet, CUB-200-2011 (细粒度鸟类分类)。
零样本学习: CUB-200-2011, AWA2, SUN。这些数据集通常提供了类别属性。
2. 实验管理与追踪
这是保证研究可复现性的关键,容易被初学者忽略:

4从复现到创新的实践路径
环境搭建
安装Python(推荐使用Anaconda管理环境和包)。
根据你的显卡(GPU)安装对应版本的PyTorch。
pip install安装上述提到的各类辅助库。
“Hello World”级复现
在GitHub上搜索目标论文的官方实现或高星复现项目。
重点阅读项目的
README.md和requirements.txt,配置环境。尝试在标准数据集上运行代码,确保能复现出论文中报告的基础结果。
深度剖析代码
不要只满足于跑通代码。使用VS Code的调试器,一步步跟踪数据流,理解:
数据加载和增强是如何做的?
模型的结构是怎样的?
损失函数是如何计算的?
优化器和训练循环是如何组织的?
开始你的实验
使用 PyTorch Lightning 重构你复现的代码,这将使你的训练流程标准化。
使用 W&B 来追踪你每一次修改超参数或模型结构后的实验结果。
从简单的修改开始,例如更换数据增强策略、调整损失函数的权重、尝试不同的优化器等,并观察结果变化。
5工具总结
一个高效的现代研究工具链可以概括为:
核心:
Python+PyTorch加速器:
PyTorch Lightning(简化代码) +W&B(追踪实验)领域助手:
Pytorch Metric Learning(少样本) +OpenMMLab(预训练模型)思想:版本控制你的代码和数据,严格记录每一次实验。
十、论文,期刊阅读技巧
在初期阅读文献时,找准方向和方法能让你事半功倍。
1精准搜索文献

搜索技巧:
组合使用:将领域关键词与
survey、review、综述、进展等词组合,能直接找到综述性文章。关注应用:结合你的兴趣领域(如
故障诊断、未知攻击检测),可以搜索"少样本学习 故障诊断"、"零样本学习 未知攻击检测"等,了解技术在实际问题中的应用。追踪前沿:可以关注像 CVPR 这样的顶级会议,了解最新的研究方向,例如"开放世界半监督学习"(Open-World Semi-Supervised Learning)。
2值得关注的期刊与会议

3高效的阅读路径与建议
找到了文献,接下来是如何高效地阅读。
第一步:从综述文章入手
这是入门一个新领域最快、最有效的方法。综述会系统梳理领域的发展脉络、基本概念、经典方法、技术分支、面临的挑战和未来方向。
阅读目标:读完一篇好的综述后,你应该能清晰地知道这个领域主要解决什么问题、有哪些主流的技术路线(如半监督学习中的一致性正则化、少样本学习中的元学习、零样本学习中的生成式模型),以及常用的数据集是什么。
第二步:精读经典与前沿论文
经典论文:根据综述中反复提及的奠基性工作,去查找原文精读。这些是理解领域基石的关键。
前沿论文:关注最近2-3年在顶级会议(如CVPR)和期刊上发表的文章,特别是那些引用量开始快速上升的论文。这能让你把握领域的最新进展,例如针对"开放世界"场景的半监督学习或轻量化的少样本故障诊断网络。
第三步:实践与批判性阅读
动手复现:如果条件允许,尝试复现经典论文的算法。这会让你对方法的细节和难点有更深的理解。
带着问题读:阅读时思考:这篇论文的核心创新点是什么?它解决了之前方法的哪些不足?它引入了哪些新的假设或限制?实验设计是否充分,能否支撑其结论?
4如何筛选和判断文献质量
看来源:优先选择发表在知名期刊和顶级会议上的文章。
看引用量:一般来说,引用量是衡量论文学术影响力的重要指标。
看时间:兼顾经典高引论文和近期发表的论文,以构建完整的知识图谱。
看综述评价:优秀的综述不仅会总结方法,还会客观评价各类方法的优缺点和适用场景。
十一、研究生规划
1第一年:打好基础与确定方向
这一年重点是打好基础,并确定具体的研究方向。
课程学习与文献泛读(第一学期)
学好专业课,掌握机器学习、深度学习、计算机视觉等核心知识。
广泛阅读综述文献,建立对领域的宏观认识。
半监督学习:可精读上海交通大学关于半监督学习研究进展的综述。
少样本/零样本学习:可参考融合零样本学习和小样本学习的弱监督学习方法综述
熟练掌握 Python 和 PyTorch/TensorFlow,学习使用 Git 进行代码管理。
确定方向与精读文献(第二学期)
确定具体研究方向。例如,你可以考虑将半监督学习与零样本/少样本学习相结合,这是一个前沿且有潜力的方向。
精读经典和前沿论文。关注顶会(如 NeurIPS, ICML, CVPR, ICCV)和顶刊(如 TPAMI, IJCV, JMLR)上的最新工作。
学习优秀代码。在 GitHub 上寻找相关论文的开源代码,学习其实现技巧。
复现模型与准备开题(暑期)
复现经典模型:选择1-2篇经典论文,完整复现其实验。这会锻炼你的工程能力和实验分析能力。
撰写开题报告:
清晰阐述你的研究问题、创新点、技术路线、实验方案。
与导师充分讨论,确保研究方向可行且满足毕业要求。
2第二年:深入研究与取得成果
这一年核心是产出创新的研究成果,并撰写小论文。
尝试创新与实验(第一学期)
基于你对已有工作的理解,提出自己的改进或新方法。
搭建实验环境,系统地进行消融实验和对比实验,验证你方法的有效性。
定期与导师和课题组同学讨论,积极听取反馈,及时调整方向。
论文撰写与投稿(第二学期)
将你的研究成果撰写成小论文。
精心准备图表,清晰展示你的方法和结果。
反复修改论文,关注动机是否清晰、实验是否充分、论证是否严谨。
根据导师意见和课题组传统,选择合适的期刊或会议进行投稿。同时,可以开始撰写学位论文的初稿。
3第三年:完成论文与顺利答辩
这一年重点是完成学位论文,并准备答辩。
深入研究与后续工作(第一学期)
根据审稿意见修改小论文。
或围绕你的核心方向,开展更深入的研究或拓展性应用,丰富你的大论文内容。
持续撰写和完善大论文,不要等到最后才动笔。
论文完善与预答辩(第二学期初)
完成大论文初稿,交给导师审阅。
根据导师意见反复修改论文。
参加预答辩,根据预答辩委员会的意见进一步修改完善论文。
论文送审与答辩
确保论文格式规范、内容完整、创新点突出,避免任何学术不端行为。
认真准备答辩PPT,提前进行模拟练习。
4确保顺利毕业的要点
除了研究计划,以下几点对顺利毕业至关重要:
明确毕业要求:尽早向导师或研究生院了解清楚发表小论文的数量、级别要求,以及学位论文的具体标准。
善用工具与平台:
使用 Zotero/EndNote 管理文献。
使用 Overleaf 在线协作撰写论文。
使用 Weights & Biases 等工具追踪实验。
时间管理与心态调整:
将大目标分解为每周、每月的可执行小任务。
研究遇到瓶颈是常态,保持积极心态,多与导师同学交流。
注意劳逸结合,保持身心健康。
