当前位置: 首页 > news >正文

GPU编程实战指南02:CUDA开发快速上手示例

CUDA四则运算示例程序

这是一个使用CUDA进行GPU并行四则运算的示例程序。程序展示了如何利用GPU的并行计算能力执行大规模的加法、减法、乘法和除法运算,并与CPU计算结果进行对比验证。

功能特点

  • 使用CUDA实现四种基本算术运算:加法、减法、乘法和除法
  • 处理大规模数据集(默认100万个元素)
  • 自动验证GPU计算结果与CPU计算结果的一致性
  • 包含完整的错误处理机制

系统要求

  • NVIDIA GPU(支持CUDA)
  • CUDA工具包(建议使用CUDA 10.0或更高版本)
  • C++编译器(如Visual Studio、GCC等)

编译方法

Windows系统(使用NVCC命令行)

nvcc -o arithmetic arithmetic.cu

Linux系统

nvcc -o arithmetic arithmetic.cu

运行程序

编译成功后,直接运行生成的可执行文件:

./arithmetic  # Linux系统

arithmetic.exe  # Windows系统

程序输出

程序将依次执行加法、减法、乘法和除法运算,并输出每种运算的验证结果。如果GPU计算结果与CPU计算结果一致,将显示"通过";否则显示"失败"并指出不匹配的位置。

代码说明

  • arithmetic.cu:主程序文件,包含CUDA内核函数和主函数
  • 程序使用随机生成的浮点数据进行计算
  • 默认数组大小为100万个元素,可通过修改代码中的N宏定义调整

注意事项

  • 程序中的除法运算已处理除数为零的情况
  • 验证结果时允许有微小误差(epsilon = 1e-5)
  • 如需处理更大规模的数据,请确保GPU内存足够

示例代码

// arithmetic.cu
#include <stdio.h>
#include <stdlib.h>
#include <cuda_runtime.h>

/***
 * CUDA 基础概念:
 * 1. 线程层次结构:
 *    - 线程(Thread):基本执行单元
 *    - 线程块(Block):由多个线程组成
 *    - 网格(Grid):由多个线程块组成
 *
 * 2. 重要内置变量:
 *    - threadIdx:线程在块内的索引
 *    - blockIdx:线程块在网格中的索引
 *    - blockDim:线程块的维度(每块的线程数)
 *    - gridDim:网格的维度(线程块数量)
 ***/

// 定义数组大小
#define N 2000000000

// CUDA 核函数 - 加法
// __global__: 表示这是一个在GPU上运行并可以从CPU调用的核函数
__global__ void addKernel(const float* a, const float* b, float* c, int n) {
    // 计算全局线程索引:
    // blockIdx.x: 网格中当前块的索引
    // blockDim.x: 每个块的线程数
    // threadIdx.x: 块中当前线程的索引
    int idx = blockIdx.x * blockDim.x + threadIdx.x;
    if (idx < n) {
        c[idx] = a[idx] + b[idx];
    }
}

// CUDA 核函数 - 减法
// 类似于加法,这个核函数在GPU上执行并行减法
__global__ void subtractKernel(const float* a, const float* b, float* c, int n) {
    // 计算全局线程索引
    int idx = blockIdx.x * blockDim.x + threadIdx.x;
    if (idx < n) {
        c[idx] = a[idx] - b[idx];
    }
}

// CUDA 核函数 - 乘法
// 在GPU上执行并行乘法
__global__ void multiplyKernel(const float* a, const float* b, float* c, int n) {
    // 计算全局线程索引
    int idx = blockIdx.x * blockDim.x + threadIdx.x;
    if (idx < n) {
        c[idx] = a[idx] * b[idx];
    }
}

// CUDA 核函数 - 除法
// 在GPU上执行并行除法,包括处理除以零的情况
__global__ void divideKernel(const float* a, const float* b, float* c, int n) {
    // 计算全局线程索引
    int idx = blockIdx.x * blockDim.x + threadIdx.x;
    if (idx < n) {
        if (b[idx] != 0) { // 避免除以零
            c[idx] = a[idx] / b[idx];
        } else {
            c[idx] = 0; // 当除数为零时,将结果设为0
        }
    }
}

// 检查CUDA错误
// 该函数检查CUDA操作是否成功,失败时输出错误信息并退出
// CUDA API调用通常返回cudaError_t类型的错误码
void checkCudaError(cudaError_t error, const char* message) {
    if (error != cudaSuccess) {
        fprintf(stderr, "CUDA错误: %s - %s\n", message, cudaGetErrorString(error));
        exit(-1);
    }
}

// 用于结果验证的CPU计算函数版本
void cpuCalculate(const float* a, const float* b, float* c, int n, char operation) {
    for (int i = 0; i < n; i++) {
        switch (operation) {
            case '+':
                c[i] = a[i] + b[i];
                break;
            case '-':
                c[i] = a[i] - b[i];
                break;
            case '*':
                c[i] = a[i] * b[i];
                break;
            case '/':
                c[i] = (b[i] != 0) ? a[i] / b[i] : 0;
                break;
        }
    }
}

// 验证GPU和CPU结果
bool verifyResults(const float* cpu_result, const float* gpu_result, int n) {
    const float epsilon = 1e-5; // 允许的误差范围
    for (int i = 0; i < n; i++) {
        if (fabs(cpu_result[i] - gpu_result[i]) > epsilon) {
            printf("结果不匹配! 索引 %d: CPU = %f, GPU = %f\n", i, cpu_result[i], gpu_result[i]);
            return false;
        }
    }
    return true;
}

int main() {
    // 声明主机和设备内存指针
    // h_前缀表示主机内存(CPU内存)
    // d_前缀表示设备内存(GPU内存)
    float *h_a, *h_b, *h_c, *h_verify;
    float *d_a, *d_b, *d_c;
    
    // 分配主机内存(使用标准C的malloc函数)
    h_a = (float*)malloc(N * sizeof(float)); // 第一个输入数组
    h_b = (float*)malloc(N * sizeof(float)); // 第二个输入数组
    h_c = (float*)malloc(N * sizeof(float)); // 存储GPU计算结果
    h_verify = (float*)malloc(N * sizeof(float)); // 存储CPU验证结果

    // 初始化输入数据
    // 用随机数填充输入数组
    for (int i = 0; i < N; i++) {
        h_a[i] = rand() / (float)RAND_MAX; // 生成0到1之间的随机浮点数
        h_b[i] = rand() / (float)RAND_MAX;
    }

    // 分配设备内存(GPU内存)
    // cudaMalloc是用于GPU内存分配的CUDA API
    // 第一个参数是指向指针的指针,第二个是要分配的字节数
    checkCudaError(cudaMalloc((void**)&d_a, N * sizeof(float)), "分配设备内存d_a失败");
    checkCudaError(cudaMalloc((void**)&d_b, N * sizeof(float)), "分配设备内存d_b失败");
    checkCudaError(cudaMalloc((void**)&d_c, N * sizeof(float)), "分配设备内存d_c失败");

    // 将数据从主机内存复制到设备内存
    // cudaMemcpy是用于主机和设备之间数据传输的CUDA API
    // 参数:目标指针,源指针,要复制的字节数,复制方向
    // cudaMemcpyHostToDevice表示从CPU复制到GPU
    checkCudaError(cudaMemcpy(d_a, h_a, N * sizeof(float), cudaMemcpyHostToDevice), "复制数据到设备d_a失败");
    checkCudaError(cudaMemcpy(d_b, h_b, N * sizeof(float), cudaMemcpyHostToDevice), "复制数据到设备d_b失败");

    // 设置CUDA核函数启动参数
    // 定义块大小和网格大小
    int threadsPerBlock = 256; // 每个块包含256个线程
    // 计算处理所有数据所需的块数
    // 公式确保有足够的线程处理所有N个元素
    int blocksPerGrid = (N + threadsPerBlock - 1) / threadsPerBlock;

    // 执行加法运算
    printf("\n正在执行GPU加法运算...\n");
    addKernel<<<blocksPerGrid, threadsPerBlock>>>(d_a, d_b, d_c, N);
    checkCudaError(cudaGetLastError(), "加法核函数启动失败");
    checkCudaError(cudaMemcpy(h_c, d_c, N * sizeof(float), cudaMemcpyDeviceToHost), "拷贝加法结果到主机失败");
    cpuCalculate(h_a, h_b, h_verify, N, '+');
    printf("加法运算验证: %s\n", verifyResults(h_verify, h_c, N) ? "通过" : "未通过");

    // 执行减法运算
    printf("\n正在执行GPU减法运算...\n");
    // 使用相同的网格和块配置启动减法核函数
    subtractKernel<<<blocksPerGrid, threadsPerBlock>>>(d_a, d_b, d_c, N);
    checkCudaError(cudaGetLastError(), "减法核函数启动失败");
    // 将GPU结果复制回CPU
    checkCudaError(cudaMemcpy(h_c, d_c, N * sizeof(float), cudaMemcpyDeviceToHost), "复制减法结果到主机失败");
    // 在CPU上执行相同的减法
    cpuCalculate(h_a, h_b, h_verify, N, '-');
    // 验证结果
    printf("减法运算验证: %s\n", verifyResults(h_verify, h_c, N) ? "通过" : "未通过");

    // 执行乘法运算
    printf("\n正在执行GPU乘法运算...\n");
    // 启动乘法核函数
    multiplyKernel<<<blocksPerGrid, threadsPerBlock>>>(d_a, d_b, d_c, N);
    checkCudaError(cudaGetLastError(), "乘法核函数启动失败");
    checkCudaError(cudaMemcpy(h_c, d_c, N * sizeof(float), cudaMemcpyDeviceToHost), "复制乘法结果到主机失败");
    cpuCalculate(h_a, h_b, h_verify, N, '*');
    printf("乘法运算验证: %s\n", verifyResults(h_verify, h_c, N) ? "通过" : "未通过");

    // 执行除法运算
    printf("\n正在执行GPU除法运算...\n");
    divideKernel<<<blocksPerGrid, threadsPerBlock>>>(d_a, d_b, d_c, N);
    checkCudaError(cudaGetLastError(), "除法核函数启动失败");
    checkCudaError(cudaMemcpy(h_c, d_c, N * sizeof(float), cudaMemcpyDeviceToHost), "复制除法结果到主机失败");
    cpuCalculate(h_a, h_b, h_verify, N, '/');
    printf("除法运算验证: %s\n", verifyResults(h_verify, h_c, N) ? "通过" : "未通过");

    // 清理内存
    // 使用cudaFree释放GPU内存
    cudaFree(d_a);
    cudaFree(d_b);
    cudaFree(d_c);
    // 使用标准C的free释放CPU内存
    free(h_a);
    free(h_b);
    free(h_c);
    free(h_verify);

    return 0;
}

在这里插入图片描述

相关文章:

  • C++20 格式化库:强大的字符串格式化工具
  • 【网络】TCP常考知识点详解
  • IDEA Commit 模态提交界面关闭VS开启对比
  • 2025最新比较使用的ai工具都有哪些,分别主要用于哪些方面?
  • 静态时序分析STA——2. 数字单元库-(2)
  • 海思Hi3516DV00移植yolov5-7.0的模型转化流程说明
  • 蓝桥杯备赛:一道数学题(练思维(同余的应用))
  • 大白话react第十四章高阶 React 组件开发和React 状态管理进阶等
  • 【机械视觉】C#+VisionPro联合编程———【三、加载CogToolBlock工具详解,以及实例】
  • VS2022中使用EntityFrameworkCore连接MySql数据库方法
  • HeapDumpBeforeFullGC和HeapDumpOnOutOfMemoryError区别
  • Win10 访问 Ubuntu 18 硬盘
  • 数列分块入门2
  • Linux系统下安装配置 Nginx 超详细图文教程_linux安装nginx
  • 笔记:代码随想录算法训练营day38: LeetCode322. 零钱兑换、279.完全平方数、139.单词拆分;多重背包
  • 接口技术##汇编语言
  • QSplitter保存和读取
  • [数据结构]栈和队列
  • C++20 DR11:数组 `new` 可以推导出数组大小
  • VS Code连接服务器教程
  • 学校网站建设的wbs/大数据查询平台
  • 阳逻开发区网站建设中企动力/磁力兔子
  • 大连企业免费建站/下载手机百度最新版
  • 免费网站建设品牌/广州关键词seo
  • 建设电影播放网站/青岛关键词网站排名
  • 网站客服招聘/百度学术查重