向量加法

向量加法程序解读

#include<stdio.h>
#include<cuda.h>typedef float FLOAT;
#define USE_UNIX 1  区别不同系统 get thread id 1D block and 2D grid
#define get_tid() (block)get block id, 2D grid


warm up 可选的,让gpu先运作起来,
函数前后来一个时间戳,获取程序时间长度
后面一个是纯粹在cpu上运行的代码,用于时间比较。

关于指针

在 CUDA 中,函数的参数需要明确指定其在设备端(称为 kernel 函数)还是在主机端执行。在 __global__ 修饰的 kernel 函数中,所有参数都会被显式地传递到设备端,并在该函数中进行操作。因此,在 kernel 函数参数声明中,需要使用指针类型 FLOAT * 来传递数据。

在您提供的函数定义中,FLOAT *x 表示一个指向存储输入数组 x 的内存空间的指针,FLOAT *y 表示一个指向存储输出数组 y 的内存空间的指针,int N 则表示数组的大小。这样定义的好处是在 kernel 函数中可以直接通过指针来访问数组元素,而不需要进行数据拷贝等额外操作,从而提高计算效率。

然而,由于 kernel 函数只能在设备端执行,因此在主机端调用 kernel 函数时,需要先将数据从主机端拷贝到设备端,再在设备端执行 kernel 函数。通常情况下,我们会使用类似于下面的代码来调用 kernel 函数:

FLOAT *d_x, *d_y; // 定义设备端指针
cudaMalloc(&d_x, N * sizeof(FLOAT)); // 在设备端分配空间
cudaMemcpy(d_x, x, N * sizeof(FLOAT), cudaMemcpyHostToDevice); // 将 x 数组拷贝到设备端
cudaMalloc(&d_y, N * sizeof(FLOAT)); // 在设备端分配空间
add<<<1, 1>>>(d_x, d_y, N); // 调用 kernel 函数
cudaMemcpy(y, d_y, N * sizeof(FLOAT), cudaMemcpyDeviceToHost); // 将 y 数组拷贝回主机端
cudaFree(d_x); // 释放设备端空间
cudaFree(d_y);

在这个例子中,x 和 y 是主机端指针,d_x 和 d_y 则是设备端指针。我们先在设备端使用 cudaMalloc() 分配空间,再使用 cudaMemcpy() 将数据从主机端拷贝到设备端,然后调用 kernel 函数,最后再将结果从设备端拷贝回主机端。通过这种方式,就可以在 CUDA 中实现高效的数据并行计算了。

关于N

在 CUDA 中,如果函数参数需要传递的是一个单一的值,那么就不需要使用指针类型。在您提供的 add() kernel 函数中,N 是表示数组大小的一个整数参数,不需要使用指针类型。

当您调用这个 kernel 函数时,可以直接使用下面的语句来传递参数:

add<<<num_blocks, num_threads>>>(x, y, N);

其中,N 是一个整数变量,不需要使用取地址符号 &。在设备端执行 kernel 函数时,N 可以直接被访问并使用,因为它是一个值参数。

需要注意的是,虽然 N 不需要使用指针类型,但它仍然需要在 kernel 函数参数列表中进行声明,因为 CUDA 在编译时需要确定每个 kernel 函数的参数列表。

代码

获取线程全局编号
如果编号小于向量长度,那么就进行相加,其实就是并行计算

后面是cpu的代码用于比较
这里是循环的串行计算

代码段2

这里就是区分unix 还是 windows下的时间

代码段3


热身代码调用了8次
开辟了一个块,含有256个线程

main

int main()
{int N = 20000000; int nbytes = N * sizeof(FLOAT);  定义两千万的浮点数 的内存/* 1D block */int bs = 256;     块的大小 一维度的/* 2D grid */int s = ceil(sqrt((N + bs - 1.) / bs)); 不同的GPU在x y z 维度上有限制,不论是块还是网格 65536 z维度1024dim3 grid = dim3(s, s);           取平方根,表示二维的FLOAT *dx = NULL, *hx = NULL; d表示device h表示host 分别为两者申请内存FLOAT *dy = NULL, *hy = NULL;  三个向量 指针FLOAT *dz = NULL, *hz = NULL;int itr = 30;int i;double th, td;/* allocate GPU mem */ 申请GPU内存 三个向量  你这里是加法运算 用到3个向量cudaMalloc((void **)&dx, nbytes);   取地址 相当于给指针分配内存,并用二重指针接收cudaMalloc((void **)&dy, nbytes);cudaMalloc((void **)&dz, nbytes);if (dx == NULL || dy == NULL || dz == NULL) {     指针是否为空,是否正确分配到内存printf("couldn't allocate GPU memory\n");return -1;}printf("allocated %.2f MB on GPU\n", nbytes / (1024.f * 1024.f));/* alllocate CPU mem */hx = (FLOAT *) malloc(nbytes);hy = (FLOAT *) malloc(nbytes);hz = (FLOAT *) malloc(nbytes);if (hx == NULL || hy == NULL || hz == NULL) {printf("couldn't allocate CPU memory\n");return -2;}printf("allocated %.2f MB on CPU\n", nbytes / (1024.f * 1024.f));/* init */for (i = 0; i < N; i++) {   全部cpu上初始化hx[i] = 1;hy[i] = 1;hz[i] = 1;}/* copy data to GPU */cudaMemcpy(dx, hx, nbytes, cudaMemcpyHostToDevice);  dx目的地 hx从哪里拷贝, 拷贝多少字节 ,拷贝方向cudaMemcpy(dy, hy, nbytes, cudaMemcpyHostToDevice);cudaMemcpy(dz, hz, nbytes, cudaMemcpyHostToDevice);/* call GPU */cudaDeviceSynchronize(); 卡住,必须等Gpu所有跑完才跑 ,因为是异步的,后面的程序调用完,不等执行完,就继续往下执行了td = get_time();for (i = 0; i < itr; i++) vec_add<<<grid, bs>>>(dx, dy, dz, N);cudaDeviceSynchronize(); 等GPU跑完才开始往下执行,相当于计算gpu运行时间td = get_time() - td;/* CPU */th = get_time();  cpu是同步的,直接计算for (i = 0; i < itr; i++) vec_add_host(hx, hy, hz, N);th = get_time() - th;printf("GPU time: %e, CPU time: %e, speedup: %g\n", td, th, th / td);cudaFree(dx);cudaFree(dy);cudaFree(dz);free(hx);free(hy);free(hz);return 0;
}

这行代码使用了 C++ 标准库中的 ceil() 函数和数学库中的 sqrt() 函数,用于计算一个整数 N 被分为块大小为 bs 的若干块时,需要划分的块数。

具体地,表达式 (N + bs - 1.) / bs 表示将 N 加上一个块大小 bs 减一后再除以 bs,得到的结果是一个小数,但因为加上了一个浮点数 bs - 1.,所以结果会自动向上取整。例如,当 N=1000bs=256 时,表达式的结果为 4.894,但向上取整后就变成了 5

接着,函数 sqrt() 被用于对结果取平方根,得到的值表示将 N 划分为平方块数时每边的块数。最后,又调用了标准库中的 ceil() 函数,将该数向上取整并赋值给变量 s,即为划分后的块数。

换句话说,这行代码的作用是计算需要将一个长度为 N 的数据分割成块大小为 bs 的若干块时,一共需要划分多少块。这个划分结果会被保存在变量 s 中,供后续使用。

为什么要 +bs-1再除,直接除不好

由于加上 bs-1 的操作是为了确保整数除法可以向上取整,避免数据划分误差,而 (N + bs - 1) / bs 可以达到这个效果,因此使用 (N + bs - 1) / bs 进行整数除法可以得到正确的结果。当 N=1000bs=256 时,使用 (N + bs - 1) / bs 进行整数除法得到的商是 (1000 + 256 - 1) / 256 = 4,即实际需要划分成 4 个块。再次感谢您的指正。

在进行整数除法时,为了避免舍入误差可能引起的结果错误,我们经常需要将被除数加上除数减一得到一个偏移值,使得偏移后的被除数能够确保被恰当地划分成为等大小的整数块。

在这个具体的例子中,我们需要将长度为 N 的数据分割成块大小为 bs 的若干块,并计算需要划分多少块。假设 N 不能被 bs 整除,则使用 (N + bs - 1) / bs 进行整数除法后的商会比真实的商小 1,即有可能少算一个块。例如,当 N=1000bs=256 时,使用 (N ) / bs 进行整数除法得到的商是 3,而不是真实的商 4

因此,我们需要对被除数进行调整,使得整数除法得到的商向上取整,即确保所有的数据都被正确地划分到某个块中。而加上 bs-1 的目的正是为了解决这个问题,确保整数除法得到的商是向上取整的结果,即每个块装满数据,并且不会有数据被遗漏。

所以,在当前的情况下,将 N 加上 bs-1 再除以 bs,可以确保划分的块数为向上取整后的结果,避免了直接进行整数除法所可能带来的数据划分误差。

ceil

是的,ceil 这个函数是向上取整的。它的全称是 “ceiling”,表示将一个实数向上取整到最近的整数。具体来说,如果给定一个实数 x,那么 ceil(x) 的值就是大于或等于 x 的最小整数。

例如,ceil(2.3) 的结果是 3ceil(-1.5) 的结果是 -1ceil(4) 的结果是 4。在计算机科学中,ceil 函数常用于需要对数据进行分块或分页的操作中,确保每一块或每一页都有足够的容量,避免数据划分不均匀或发生越界问题。

3

这段代码使用了 CUDA 中的动态内存分配函数 cudaMalloc,其作用是在设备端(GPU)上分配一块指定大小的内存,并返回指向该内存的指针。具体来说,这段代码中的 dx 是一个指向 FLOAT 类型数据的指针,nbytes 是需要分配的内存大小,单位是字节。

在这段代码中,cudaMalloc((void **)&dx, nbytes) 表示将大小为 nbytes 的内存块分配给 dx 指针,并且内存的起始地址被存储在 dx 指向的内存单元中。因为 cudaMalloc 函数返回值类型是 void,所以需要将其返回的指针强制转换为 FLOAT * 类型,即 cudaMalloc((void **)&dx, nbytes) 中的 (FLOAT **) 部分,表示将 &dx 的类型从 FLOAT ** 转换为 void **,以便与 cudaMalloc 函数的参数类型匹配。

值得注意的是,在使用完动态分配的内存后,程序应该调用 cudaFree 函数释放内存,以避免内存泄露。例如,可以使用 cudaFree(dx) 来释放 dx 所指向的内存块。

为什么要 x y z

在 CUDA 编程中,通常需要在主机端(CPU)和设备端(GPU)之间传输数据。为了方便这些数据的管理和操作,CUDA 引入了统一内存(Unified Memory)的概念,即将主机端和设备端的内存作为同一块内存进行管理。在使用统一内存时,我们可以使用 cudaMallocManaged 函数来分配一块统一内存,该函数会在主机端和设备端上都分配一部分内存,然后将这两部分内存映射到同一块物理内存上。

因此,在使用统一内存时,我们只需要分配一个指向 FLOAT 类型数据的指针,然后将其在主机端和设备端之间传递即可。具体来说,我们可以通过下面的代码实现:

FLOAT *x = NULL;
cudaMallocManaged(&x, nbytes);

其中,nbytes 表示需要分配的内存大小,单位是字节。这段代码会在主机端和设备端同时分配一块大小为 nbytes 的统一内存,然后将 x 指向这块内存的起始地址。在程序运行过程中,我们可以通过在主机端对 x 进行操作来修改设备端的内存数据,或者通过在设备端对 x 进行操作来修改主机端的内存数据。

至于为什么需要申请三个指针 dxdydz,我猜测可能是在某些情况下需要同时传递多个数组到 GPU 中进行并行计算,这时可以分别使用三个指针分别指向这些数组的起始地址。具体而言,例如在进行向量加法的操作时,我们可以将两个向量分别存储在 dxdy 中,然后将结果保存在 dz 中。在 GPU 中进行并行计算时,可以通过下面的代码实现:

__global__ void add_vectors(FLOAT *dx, FLOAT *dy, FLOAT *dz, int n) {int i = threadIdx.x + blockIdx.x * blockDim.x;if (i < n) {dz[i] = dx[i] + dy[i];}
}

其中,add_vectors 是一个 GPU 内核函数,用于实现向量加法的并行计算。dxdydz 分别表示两个输入向量和一个输出向量的起始地址,n 表示向量的长度。每个线程计算一部分数据,通过线程索引 threadIdx.x 和块索引 blockIdx.x 来计算需要处理的数据的起始位置 i,然后通过 dz[i] = dx[i] + dy[i] 计算结果并保存到输出向量中。

malloc

malloc() 是一个在 C 和 C++ 中用于动态分配内存的函数,它的原型如下:

void* malloc(size_t size);

它接受一个参数 size,表示需要分配内存块的大小(以字节为单位),返回值是一个指向分配内存块的 void 指针。如果分配失败,则返回空指针(NULL)。

例如,下面的代码使用了 malloc() 函数动态分配了一个长度为 10 的整数数组,并将其初始化为 0:

#include <stdio.h>
#include <stdlib.h>int main() {int* a = (int*) malloc(10 * sizeof(int));if (a == NULL) {printf("Failed to allocate memory.\n");exit(EXIT_FAILURE);}for (int i = 0; i < 10; i++) {a[i] = 0;}// 访问并处理 a 数组free(a); // 释放内存块return 0;
}

需要注意的是,使用 malloc() 函数分配的内存块需要手动调用 free() 函数进行释放,否则会导致内存泄漏。

cudaMalloc((void **)&dx, nbytes);

在 CUDA 中,cudaMalloc() 函数用于在设备端分配内存。其中,void ** 是一个指向指针的指针,它的作用是使函数能够修改传入的指针的值。该函数原型如下:

cudaError_t cudaMalloc(void** devPtr, size_t size);

第一个参数 devPtr 是一个指向指针的指针,用于存储函数分配的设备端内存的地址。需要注意的是指针本身也需要进行分配,因此需要使用 void ** 来接收该指针的地址。

因此,cudaMalloc((void **)&dx, nbytes) 中的 &dx 表示 dx 变量的地址,&dx 实际上是一个指向 dx 的指针,因此需要将其转换为 void ** 类型,并且在前面加上 & 取其地址,以便能够存储函数分配的设备端内存的地址。

例如,下面的代码使用了 cudaMalloc() 函数分配了一个大小为 nbytes 字节的设备内存空间,并将其地址存储到 dx 指针中:

#include <stdio.h>
#include <cuda_runtime.h>int main() {int *dx;size_t nbytes = 1024;cudaError_t err = cudaMalloc((void **)&dx, nbytes);if (err != cudaSuccess) {printf("Failed to allocate device memory: %s\n", cudaGetErrorString(err));exit(EXIT_FAILURE);}// 在设备中使用 dx 指针分配的内存块cudaFree(dx); // 释放设备内存return 0;
}

在使用完 cudaMalloc() 分配的内存空间后,需要使用 cudaFree() 函数将其释放,否则会导致设备端内存泄漏。

cudaDeviceSynchronize();

在CUDA程序中,cudaDeviceSynchronize()函数用于线程同步,它可以使当前主机线程等待所有设备上的CUDA核函数执行完成,并且在执行完成后返回是否有错误发生。该函数没有任何参数。

当CUDA主机代码调用一个CUDA核函数时,该调用是异步的,即主机代码不会等待CUDA核函数执行完成而是会立即返回并继续执行下一条语句。因此,如果主机代码需要使用CUDA核函数的输出结果,那么就需要使用 cudaDeviceSynchronize() 函数来等待CUDA核函数执行完成。

例如,下面的代码展示了 cudaDeviceSynchronize() 函数的使用场景:

#include <stdio.h>
#include <cuda_runtime.h>__global__ void kernel(int *a, int *b, int *c) {int i = threadIdx.x;c[i] = a[i] + b[i];
}int main() {int n = 256;int *a, *b, *c;int *d_a, *d_b, *d_c;// 分配内存a = (int*) malloc(n * sizeof(int));b = (int*) malloc(n * sizeof(int));c = (int*) malloc(n * sizeof(int));cudaMalloc((void**)&d_a, n * sizeof(int));cudaMalloc((void**)&d_b, n * sizeof(int));cudaMalloc((void**)&d_c, n * sizeof(int));// 初始化输入数据for (int i = 0; i < n; i++) {a[i] = i;b[i] = 2 * i;}// 将输入数据从主机内存拷贝到设备内存中cudaMemcpy(d_a, a, n * sizeof(int), cudaMemcpyHostToDevice);cudaMemcpy(d_b, b, n * sizeof(int), cudaMemcpyHostToDevice);// 调用 CUDA 核函数kernel<<<1, n>>>(d_a, d_b, d_c);// 等待 CUDA 核函数执行完成cudaDeviceSynchronize();// 将计算结果从设备内存拷贝回主机内存cudaMemcpy(c, d_c, n * sizeof(int), cudaMemcpyDeviceToHost);// 输出计算结果for (int i = 0; i < n; i++) {printf("%d + %d = %d\n", a[i], b[i], c[i]);}// 释放内存free(a); free(b); free(c);cudaFree(d_a); cudaFree(d_b); cudaFree(d_c);return 0;
}

在这个例子中,cudaDeviceSynchronize()函数的作用是等待 kernel() 函数执行完成,并且等待所有设备上的CUDA核函数执行完成。如果不使用该函数调用 kernel() 后立即将结果从设备拷贝到主机可能会导致程序输出以及计算结果出现错误。

总结

10倍以上速度

cuda2 向量加法相关推荐

  1. Visual Studio 2008 + Visual Assist X的CUDA2.3编译环境设置[转]

    Visual Studio 2008 + Visual Assist X的CUDA2.3编译环境设置 发表时间:2010-01-21 装了这些可已在VC2008里运行SDK里边的一些例子了,但是编程很 ...

  2. CUDA2.1-原理之索引与warp

    本小节来自<大规模并行处理器编程实战>第四节,该书是很好的从内部原理结构上来讲述了CUDA的,对于理解CUDA很有帮助,借以博客的形式去繁取间,肯定会加入自己个人理解,所以有错误之处还望指 ...

  3. CUDA编程 -- 2向量加法

    本文介绍CUDA环境下两个向量的加法运算.代码运行的系统环境为操作系统Ubuntu 16.04 LTS 64位,CUDA版本7.5,GCC版本5.4.0.项目Github下载地址为:CUDA向量加法G ...

  4. 【PTA】平面向量加法

    7-65 平面向量加法(15 分) 本题要求编写程序,计算两个二维平面向量的和向量. 输入格式: 输入在一行中按照"x​1​​ y​1​​ x​2​​ y​2​​"的格式给出两个二 ...

  5. CUDA C编程向量加法-第3章 CUDA 简介

    第3章 CUDA 简介 <大规模并行处理器编程实战>学习,其他章节关注专栏 CUDA C CUDA C 编程友情链接: 第三章 CUDA 简介-CUDA C编程向量加法 第四章 CUDA数 ...

  6. 平面向量加法 (15 分)

    平面向量加法 (15 分) 本题要求编写程序,计算两个二维平面向量的和向量. 输入格式: 输入在一行中按照"x​1​​ y​1​​ x​2​​ y​2​​"的格式给出两个二维平面向 ...

  7. 天梯赛题目练习——平面向量加法(附带PTA测试点)

    平面向量加法 题目 答案 PTA测试点 总结 题目 答案 #include<stdio.h> int main() {double a,b,c,d;scanf("%lf %lf ...

  8. 7-4 平面向量加法 (15 分)---->c语言的深度刨析

    7-4 平面向量加法 (15 分) 本题要求编写程序,计算两个二维平面向量的和向量. 输入格式: 输入在一行中按照"x1​ y1​ x2​ y2​"的格式给出两个二维平面向量v1​ ...

  9. 7-3 三维向量运算设计一个三维向量类,实现向量加法、减法以及向量与标量的乘法和除法运算。

    7-3 三维向量运算 设计一个三维向量类,实现向量加法.减法以及向量与标量的乘法和除法运算.后面添加下面代码完成: 天杀的出题人,非得放个图片在这,放个代码块会死吗? 运行的时候,要把这张图片里的内容 ...

最新文章

  1. java 使用servlet做学生管理系统(无框架)
  2. Educational Codeforces Round 75 (Rated for Div. 2)
  3. 当前完整路径_详解关键路径法,这可能是你找得到最详细的了
  4. 电与磁 —— 电磁铁
  5. 猎豹浏览器_金山猎豹浏览器_官方正式版下载_首款双核安全浏览器
  6. Linux DHCP服务详解
  7. springboot 嵌入式容器
  8. 范华专栏 | 投资中的统计陷阱
  9. 天翼网关服务器无响应,教你使用天翼网关软件突然打不开的解决方法
  10. 广数25i系统倒刀回刀m代码_广数系统编程实例精选
  11. 使用css实现产品分类,DIV+CSS实现京东商城分类适合所有版本
  12. 软件设计·体系结构设计(Architectual Design)
  13. 你所不知的有趣投影方法
  14. HTML+CSS静态页面网页设计作业——我的家乡-四川成都(4页) HTML+CSS+JavaScript
  15. 怎么修改开龙软件里服务器名称,开龙设置服务器备份
  16. eve计算机配置要求,玩EVE的电脑应该怎么配置?
  17. ENDNOTE使用方法(转发)
  18. Linux—shell—nohup命令使用
  19. 易语言 php post,易语言POST发送邮件
  20. Java是剑客,.NET是刀客

热门文章

  1. 连锁实体门店+收银系统的解决方案
  2. oracle 临时表空间使用率
  3. canvas 菜鸟入门笔记
  4. 【React项目架构 】+后台管理系统cms实操
  5. 让学前端不再害怕英语单词(一)
  6. table()函数用法(转载)
  7. 【JVM】引用计数和可达性分析算法详解
  8. (个人学习记录)Solidworks常见界面操作问题汇总
  9. [附源码]Java计算机毕业设计SSM高校心理咨询管理系统
  10. Swift @available #available guard