CUDA——L1缓存全局内存加载

news/2024/11/24 11:37:43/

已知A和B两个数组类型int,尺寸100。现在使用一些thread来将A中的一些元素复制到B中去。通过一些对比,来明确一些基本概念。

L1缓存的载入事务粒度是128字节。

#- 编译中显式开启L1缓存,启动一个warp,加载的数据为128字节,共消耗1个加载事务,利用率100%
nvcc -g -G -Xptxas -dlcm=ca -arch=sm_37 test.cu -o test
nvprof --metrics gld_transactions,gld_efficiency ./test
matrixMulti<<<(1 1 1), (32 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency     100.00%     100.00%     100.00%#- 编译中显式开启L1缓存,启动一个warp,加载的数据为120字节,共消耗1个加载事务,利用率 120/128=93.75%,说明L1缓存启用时,粒度为128字节
matrixMulti<<<(1 1 1), (1 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency       3.12%       3.12%       3.12%

L2缓存的内存事务粒度为32字节,但是对于载入而言,是可以以一段、二段、三段、四段四种选项来自动适配的。

#- nvcc关闭L1缓存,加载一个4字节的效率为12.5%,说明粒度为32字节
nvcc -g -G -Xptxas -dlcm=cg -arch=sm_37 test.cu -o test
matrixMulti<<<(1 1 1), (1 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency      12.50%      12.50%      12.50%
#- nvcc关闭L1缓存,加载一个36字节的效率为56.25%,说明粒度为64字节
matrixMulti<<<(1 1 1), (9 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency      56.25%      56.25%      56.25%
#- nvcc关闭L1缓存,加载一个68字节的效率为70.83%,说明粒度为96字节
matrixMulti<<<(1 1 1), (17 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency      70.83%      70.83%      70.83%
#- nvcc关闭L1缓存,加载一个100字节的效率为78.12%,说明粒度为128字节
matrixMulti<<<(1 1 1), (25 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           1           1           11                            gld_efficiency             Global Memory Load Efficiency      78.12%      78.12%      78.12%

对齐概念基于的首地址是对应数组的首地址。

#- B[x] = A[x+1]; 偏移1位,启动了2个内存事务,累积有5段32位加载,需要的是4段,因此效率为80%。
nvcc -g -G -Xptxas -dlcm=cg -arch=sm_37 test.cu -o test
matrixMulti<<<(1 1 1), (32 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gld_transactions                  Global Load Transactions           2           2           21                            gld_efficiency             Global Memory Load Efficiency      80.00%      80.00%      80.00%
  1. 同时也证明了,L2缓存时,一个内存加载事务最多包含4段32位的加载。
  2. 载出只有L2缓存,没有L1缓存
#- 编译中显式开启L1缓存,启动一个warp,加载的数据为128字节,共消耗1个加载事务,利用率100%
#- B[x+1] = A[x]; 偏移1位,启动了2个内存事务,累积有5段32位载出,需要的是4段,因此效率为80%。
nvcc -g -G -Xptxas -dlcm=ca -arch=sm_37 test.cu -o test
matrixMulti<<<(1 1 1), (32 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gst_transactions                 Global Store Transactions           2           2           21                            gst_efficiency            Global Memory Store Efficiency      80.00%      80.00%      80.00%
#- 编译中显式开启L1缓存
matrixMulti<<<(1 1 1), (24 1 1)>>> execute
Invocations                               Metric Name                        Metric Description         Min         Max         Avg
Device "Tesla K80 (4)"Kernel: matrixMulti(int*, int*)1                          gst_transactions                 Global Store Transactions           1           1           11                            gst_efficiency            Global Memory Store Efficiency     100.00%     100.00%     100.00%

例子

#- C[x] = A[3] + B[x]; 禁用L1缓存
  • 错误计算:由于禁用了L1,那么L2的粒度为32。一个warp内的32个线程都需要对A和B各自访问一次,因此效率为两者的平均值: ( 4 / 32 + 1 ) / 2 = 56.25 (4/32+1)/2=56.25% (4/32+1)/2=56.25
  • 正确计算:由于warp内的32个线程访问同一个A元素(4字节),访问连续对其的B元素(128字节),那么L2对于A的访问会启用一段32字节的事务,而对B则会启用4段32字节的事务,因此两个事务总共加载了160字节。而有效数据为132字节,因此效率为82.5%。

http://www.ppmy.cn/news/464709.html

相关文章

pytorch的显存机制torch.cuda.empty_cache()

转自&#xff1a;https://oldpan.me/archives/pytorch-gpu-memory-usage-track 注意 本文撰写时间为2019年&#xff0c;相关内容可能已失效 Pytorch已经可以自动回收我们不用的显存&#xff0c;类似于python的引用机制&#xff0c;当某一内存内的数据不再有任何变量引用时&…

【pytorch】torch.cuda.empty_cache()==>释放缓存分配器当前持有的且未占用的缓存显存

Pytorch 训练时无用的临时变量可能会越来越多&#xff0c;导致 out of memory &#xff0c;可以使用下面语句来清理这些不需要的变量。 torch.cuda.empty_cache() 官网 上的解释为&#xff1a; Releases all unoccupied cached memory currently held by the caching allocato…

为什么一打开Adobe Creative Cloud 桌面上就会出现一个GPUCache文件夹

是因为Adobe Creative Cloud打开后&#xff0c;后台有baiAdobe Creative Cloud要进行的项目&#xff0c;但是还没完全进du行完成zhi卡住了导致。GPUCache文件夹dao正常删除或对文件夹的任何操作皆为文件被占用&#xff08;与adobecloud开启与否无关&#xff09;&#xff0c;用c…

Tensorflow100%占用GPU内存

在使用GPU进行“炼丹”的过程中&#xff0c;经常会出现&#xff0c;明明数据不是很大&#xff0c;网络规模也很小&#xff0c;batch_size也不大&#xff0c;但是GPU内存占用瞬间拉满。GPU内存拉满的原因可能时Tensorflow默认将内存全部沾满&#xff0c;以利用大块内存&#xff…

显存优化 | Pytorch的显存机制torch.cuda.empty_cache及周边概念

注&#xff1a;文中涉及一些内部底层实现机制&#xff0c;可能和大家外界看到的不一样&#xff0c;这里略过不做介绍。借着笔记&#xff0c;分享平时碰到的技术点&#xff0c;不高端&#xff0c;不炫酷&#xff0c;对你有用更好了。 最近在做模型的优化工作&#xff0c;主要涉…

9. CUDA shared memory使用------GPU的革命

9. CUDA shared memory使用------GPU的革命 序言&#xff1a;明年就毕业了&#xff0c;下半年就要为以后的生活做打算。这半年&#xff0c;或许就是一个抉择的时候&#xff0c;又是到了一个要做选择的时候。或许是自己的危机意识比较强&#xff0c;一直都觉得自己做得不够好&a…

tensorflow释放显存

经过测试&#xff0c;通过sess.close释放资源并不能释放显存&#xff0c;导致重新建立一个session分配资源时失败。 stackoverflow上提到了两种方法&#xff1a; 1.利用numba库&#xff08;需要安装numba库&#xff09; 背后原理&#xff1a; Tensorflow只是为GPU分配显存&a…

GPU 显存 - Caffe 内存优化

Caffe - 显存优化 1. Caffe - memory multiloading 功能 原文 - Squeezing Memory out of Caffe Caffe 的一个优化版本 - caffe-yjxiong. 测试了一下, ResNet101 相对于官方 caffe, 能够明显节省显存占用, batchsize 可以增加很多. 显存优化的 Caffe 主要实现的功能: memor…