当前位置: 首页 > news >正文

PyTorch中 torch.utils.data.DataLoader 的详细解析和读取点云数据示例

一、DataLoader 是什么?

torch.utils.data.DataLoader 是 PyTorch 中用于加载数据的核心接口,它支持:

  • 批量读取(batch)
  • 数据打乱(shuffle)
  • 多线程并行加载(num_workers)
  • 自动将数据打包成 batch
  • 数据预处理和增强(搭配 Dataset 使用)

二、常见参数详解

参数含义
dataset传入的 Dataset 对象(如自定义或 torchvision.datasets
batch_size每个 batch 的样本数量
shuffle是否打乱数据(通常训练集为 True)
num_workers并行加载数据的线程数(越大越快,但依机器决定)
drop_last是否丢弃最后一个不足 batch_size 的 batch
pin_memory若为 True,会将数据复制到 CUDA 的 page-locked 内存中(加速 GPU 训练)
collate_fn自定义打包 batch 的函数(可用于变长序列、图神经网络等)
sampler控制数据采样策略,不能与 shuffle 同时使用
persistent_workers若为 True,worker 在 epoch 间保持运行状态(提高效率,PyTorch 1.7+)

三、基本使用示例

搭配 Dataset 使用

from torch.utils.data import Dataset, DataLoaderclass MyDataset(Dataset):def __init__(self):self.data = [i for i in range(100)]def __len__(self):return len(self.data)def __getitem__(self, idx):return self.data[idx]dataset = MyDataset()
loader = DataLoader(dataset, batch_size=8, shuffle=True, num_workers=2)for batch in loader:print(batch)

四、自定义 collate_fn 示例

适用于:变长数据(如文本、点云)或特殊处理需求

from torch.nn.utils.rnn import pad_sequencedef my_collate_fn(batch):# 假设每个样本是 list 或 tensor(变长)batch = [torch.tensor(item) for item in batch]padded = pad_sequence(batch, batch_first=True, padding_value=0)return paddedloader = DataLoader(dataset, batch_size=4, collate_fn=my_collate_fn)

五、使用注意事项

  1. Windows 平台注意:

    • 设置 num_workers > 0 时,必须使用:

      if __name__ == '__main__':DataLoader(...)
      
  2. 过多线程数可能导致瓶颈:

    • 通常 num_workers = cpu_count() // 2 较稳定
  3. GPU 加速:

    • 训练时推荐设置 pin_memory=True 可提高 GPU 训练数据传输效率。
  4. 不要同时设置 shuffle=Truesampler

    • 否则会报错,二者功能冲突。

六、训练中的典型使用方式

for epoch in range(num_epochs):for i, batch in enumerate(train_loader):inputs, labels = batchinputs, labels = inputs.to(device), labels.to(device)optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()

七、调试技巧与加速建议

场景建议
数据加载慢增加 num_workers
GPU 等数据设置 pin_memory=True
Dataset 中有耗时操作考虑预处理或使用缓存
debug 模式设置 num_workers=0,禁用多进程

八、与 TensorDataset、ImageFolder 配合

from torchvision.datasets import ImageFolder
from torchvision import transformstransform = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor(),
])dataset = ImageFolder(root='your/image/folder', transform=transform)
loader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=4)

九、点云数据处理场景应用实例

点云数据处理 场景中,使用 torch.utils.data.DataLoader 时,常遇到如下需求:

  • 每帧点云大小不同(变长 Tensor)
  • 点云数据 + 标签(如语义、实例)
  • 使用 .bin.pcd.npy 等格式加载
  • 数据增强(如旋转、裁剪、噪声)
  • GPU 加速 + 批量训练

1. 点云数据 Dataset 示例(以 .npy 文件为例)

import os
import numpy as np
import torch
from torch.utils.data import Dataset, DataLoaderclass PointCloudDataset(Dataset):def __init__(self, root_dir, transform=None):self.root_dir = root_dirself.files = sorted([f for f in os.listdir(root_dir) if f.endswith('.npy')])self.transform = transformdef __len__(self):return len(self.files)def __getitem__(self, idx):point_cloud = np.load(os.path.join(self.root_dir, self.files[idx]))  # shape: [N, 3] or [N, 6]point_cloud = torch.tensor(point_cloud, dtype=torch.float32)if self.transform:point_cloud = self.transform(point_cloud)return point_cloud

2. 自定义 collate_fn(处理变长点云)

def collate_pointcloud_fn(batch):"""输入: List of [N_i x 3] tensors输出: - 合并后的 [B x N_max x 3] tensor- 每个样本的真实点数 list"""max_points = max(pc.shape[0] for pc in batch)padded = torch.zeros((len(batch), max_points, batch[0].shape[1]))lengths = []for i, pc in enumerate(batch):lengths.append(pc.shape[0])padded[i, :pc.shape[0], :] = pcreturn padded, torch.tensor(lengths)

3. 加载器构建示例

dataset = PointCloudDataset("/path/to/your/pointclouds")loader = DataLoader(dataset,batch_size=8,shuffle=True,num_workers=4,pin_memory=True,collate_fn=collate_pointcloud_fn
)for batch_points, batch_lengths in loader:# batch_points: [B, N_max, 3]# batch_lengths: [B]print(batch_points.shape)

4. 可选扩展功能

功能实现方法
点云旋转/缩放自定义 transform(例如随机旋转矩阵乘点云)
加载 .pcd使用 open3d, pypcd, 或 pclpy
同时加载标签在 Dataset 中返回 (point_cloud, label),修改 collate_fn
voxel downsampling使用 open3d.geometry.VoxelDownSample
GPU 加速point_cloud = point_cloud.cuda(non_blocking=True)

5. 训练循环中使用

for epoch in range(num_epochs):for batch_pc, batch_len in loader:batch_pc = batch_pc.to(device)# 可用 batch_len 做 mask 或 attention maskout = model(batch_pc)...

相关文章:

  • 信息学奥赛一本通 1551:维护序列
  • FreeRTOS---任务创建与删除
  • HunyuanPortrait - 一张图生成任意表情和动作的肖像动画 精准操控眼睛和嘴唇动作 支持50系显卡 本地一键整合包下载
  • 一根网线连接两台电脑组建局域网
  • Qt 中的 d-pointer 与 p-pointer小结
  • 【ROS2】Qt Debug日志重定向到ROS2日志管理系统中
  • 1.什么是node.js、npm、vue
  • 基于通义千问的儿童陪伴学习和成长的智能应用架构。
  • 【笔记】suna部署之获取 OpenRouter API key
  • 【Java orm框架对比】十四新增gaarason/database-all框架对比
  • vite导入优化插件vite-plugin-importer
  • odoo与人工智能:可能性与新功能探索
  • JavaScript 循环语句总结
  • 网关Gateway
  • 【25-cv-05935】Keith律所代理(绿色巴士图)版权维权案
  • PostgreSQL如何更新和删除表数据
  • 解决报错error: ‘void_t’ is not a member of ‘std’
  • 软件开发新技术课设-个人博客系统(一)
  • Python中的enumerate函数:优雅地遍历序列索引与元素
  • 大模型强化学习中的 PPO、DPO、KTO、ORPO 全解析
  • 网站建设 制作教程 pdf/2345王牌浏览器
  • 做网站要买什么/营销推广策划方案
  • 如何做微网站平台/百度收录提交入口网址是什么
  • 海外网入口/快速排名优化
  • wordpress 站点主页/天津做网站的
  • 小程序网站开发者利/上海服务政策调整