机器学习框架PyTorch
- PyTorch简介
- 安装PyTorch
- 张量(Tensor)基础 - 深度学习的“乐高积木”
- 张量操作(1) - 加减乘除那些事儿
- 张量操作(2) - 变形记:reshape和view
- 矩阵乘法
- 实战 - 用PyTorch实现线性回归
- Dataset和Dataloader - 数据处理的“流水线”
- Module详解
- Transforms 详解
- 神经网络基础 - 从神经元到网络
- 用PyTorch搭建你的第一个神经网络
- 机器学习为什么要求导
- 自动求导(Autograd) - PyTorch的“超能力”
- 激活函数 - 让网络“活”起来的秘密
- 损失函数 - 告诉网络它“错”在哪
- 优化器 - 网络学习的“导航仪”
- 学习率-更新步长
- 梯度-该怎么调整参数,才能让损失变小
- 凸优化
- 前向传播(Forward)
- 反向传播(Backward)
- 权重(Weights)和偏置(Bias)
- 过拟合(Overfitting)和欠拟合(Underfitting)
- 正则化(Regularization)
- 批次(Batch)/ 批次大小(Batch Size)
- 迭代(Iteration)/ 轮次(Epoch)
- 模型参数(Parameters)
- 非参数(Hyperparameters)
- dropout
- 归一化(Normalization)
- BatchNorm(批量归一化)与 LayerNorm(层归一化)
- 训练流程完整解析 - 从数据到预测
- 模型保存与加载 - 训练的“存档”功能
- GPU加速 - 让你的训练飞起来
- 常见错误排查 - PyTorch新手避坑指南
- 基础部分总结与综合小项目
- 卷积神经网络(CNN)通俗讲解 - 图像识别的“火眼金睛”
- 用PyTorch实现CNN - 从零搭建
- 经典网络结构解析(1) - LeNet
- 经典网络结构解析(2) - AlexNet
- 经典网络结构解析(3) - VGG
- 经典网络结构解析(4) - ResNet
- 迁移学习 - 站在巨人肩膀上
- 数据增强 - 小数据变大数据的“魔法”
- 图像分类实战 - 猫狗大战
- 可视化工具 - 看看网络在“想”什么
- 目标检测基础 - 不仅知道是什么,还知道在哪
- Faster R-CNN原理与实现
- YOLO原理与实现
- 图像分割基础 - 像素级的理解
- U-Net原理与实现
- 风格迁移 - 让你的照片变成名画
- GAN基础 - 让AI学会“创造”
- DCGAN实现 - 生成手写数字
- AutoEncoder - 数据的“压缩与解压”
- 模型优化技巧(1) - 学习率调整
- 模型优化技巧(2) - 正则化方法
- 模型部署基础 - 让模型走出实验室
- NLP基础 - 让计算机理解语言
- 词嵌入(Word Embedding) - 词语的“DNA”
- Word2Vec原理与实现
- RNN基础 - 有“记忆”的网络
- LSTM - RNN的“升级版”
- GRU - LSTM的“精简版”
- 文本分类实战 - 电影评论情感分析
- Seq2Seq模型 - 机器翻译的核心
- Attention机制 - 让网络学会“专注”
- Transformer革命 - 从RNN到Attention
- BERT原理简介 - NLP的“全能选手”
- 使用HuggingFace库快速上手BERT
- 文本生成 - 让AI帮你写文章
- NLP模型优化技巧
- 多任务学习 - 一箭多雕
- 模型解释性 - 黑箱变透明
- NLP最新趋势探讨
- 图神经网络(GNN)基础
- PyTorch Geometric入门
- 强化学习基础 - 从游戏AI说起
- DQN原理与实现
- 元学习 - 学会如何学习
- 自监督学习 - 没有标注数据怎么办
- 模型压缩 - 让大模型变小
- 量化训练 - 加速推理的秘诀
- 分布式训练 - 多GPU协作
- PyTorch Lightning - 更简洁的训练
- 模型部署进阶 - ONNX和TorchScript
- 模型服务化 - 打造AI API
- PyTorch生态圈 - 扩展你的工具箱
- PyTorch源码阅读入门
- PyTorch最佳实践
- Vision Transformer - CV领域的革命
- Diffusion模型 - 图像生成新范式
- 大语言模型(LLM)实践
- 多模态学习 - 图文结合的理解
- Kaggle竞赛入门
- 常见面试问题解析