封装CUDA为动态链接库+Qt调用

embedded/2024/12/23 5:24:37/

        由于工作需要在Qt中调用CUDA做并行计算,加速算法实现时间,发现有两种方法可以在Qt中调用CUDA代码。

        第一种是在项目中创建CUDA的cu文件,编写CUDA的核函数给其他的QT代码调用,Qt的代码正常编译,CUDA代码使用nvcc编译器编译。这种方法只要配置一下pro文件就可以了,适合CUDA代码比较少的项目,只需要几个核函数调用CUDA进行一下加速运算,具体方法可以看我的另一篇博客:QT+CUDA 同时编译QtCUDA代码文章浏览阅读1k次,点赞29次,收藏13次。工作需要把cuda的代码移植到QT中,和Qt项目一起编译,这里记录一下。_qt win .exe加cudahttps://blog.csdn.net/Sakuya__/article/details/141264954?spm=1001.2014.3001.5502

        第二种是把CUDA代码编译成动态链接库,Qt程序直接调用动态链接库中的接口,就像调用其他C++库一样。这种方法适合CUDA代码比较多的项目,比如用CUDA代码实现了一整个深度学习算法,有几十上百个CUDA文件,并且互相包含引用。这时候第一种方法在编译时就可能会有问题,并且也不好进行管理。

        这里记录一下把CUDA代码编译成动态链接库的过程。


一、编译CUDA的动态链接库

1.创建动态链接库工程

        我使用的是VS2022,建立工程,选择具有导出项的动态链接库

        项目名称是CudaDynamicCores,这是我创建完成后的项目目录结构 

        点击项目名称,右键 —> 生成依赖项 —> 生成自定义,勾选上你要用的CUDA版本,然后点击确定

2.添加CUDA文件

        点击项目名称,右键选择添加—>新建项

        选择添加CUDA文件,命名为Test.cu: 

        然后同样的再添加CUDA头文件,命名为Test.cuh 

        创建完后,右键一下Test.cu文件 —>属性,确认文件类型选择的是 CUDA C/C++。我用的VS2022,在第一步中把生成自定义项改为使用CUDA后,创建的cuda文件自动就会选择为 CUDA C/C++,如果不是的话自己点击下拉框选择一下

 3.写入CUDA代码

        Test.cuh 

#ifndef _Test_H
#define _Test_H#include "CudaDynamicCores.h"
#include "cuda_runtime.h"  
#include "device_launch_parameters.h"CUDADYNAMICCORES_API int CUDA_VectorAdd(int c[], int a[], int b[], int size);CUDADYNAMICCORES_API void CUDA_ShowDeviceProp(void);#endif	// _Test_H

        Test.cu

#include "Test.cuh"
#include <iostream>// 向量相加  
int CUDA_VectorAdd(int c[], int a[], int b[], int size)
{int result = -1;int* dev_a = 0;int* dev_b = 0;int* dev_c = 0;cudaError_t cudaStatus;// 选择用于运行的GPU  cudaStatus = cudaSetDevice(0);if (cudaStatus != cudaSuccess) {result = 1;goto Error;}// 在GPU中为变量dev_a、dev_b、dev_c分配内存空间.cudaStatus = cudaMalloc((void**)&dev_c, size * sizeof(int));if (cudaStatus != cudaSuccess) {result = 2;goto Error;}cudaStatus = cudaMalloc((void**)&dev_a, size * sizeof(int));if (cudaStatus != cudaSuccess) {result = 3;goto Error;}cudaStatus = cudaMalloc((void**)&dev_b, size * sizeof(int));if (cudaStatus != cudaSuccess) {result = 4;goto Error;}// 从主机内存复制数据到GPU内存中.  cudaStatus = cudaMemcpy(dev_a, a, size * sizeof(int), cudaMemcpyHostToDevice);if (cudaStatus != cudaSuccess) {result = 5;goto Error;}cudaStatus = cudaMemcpy(dev_b, b, size * sizeof(int), cudaMemcpyHostToDevice);if (cudaStatus != cudaSuccess) {result = 6;goto Error;}// 启动GPU内核函数  addKernel << <1, size >> > (dev_c, dev_a, dev_b);// 采用cudaDeviceSynchronize等待GPU内核函数执行完成并且返回遇到的任何错误信息  cudaStatus = cudaDeviceSynchronize();if (cudaStatus != cudaSuccess) {result = 7;goto Error;}// 从GPU内存中复制数据到主机内存中  cudaStatus = cudaMemcpy(c, dev_c, size * sizeof(int), cudaMemcpyDeviceToHost);if (cudaStatus != cudaSuccess) {result = 8;goto Error;}result = 0;// 重置CUDA设备,在退出之前必须调用cudaDeviceReset  cudaStatus = cudaDeviceReset();if (cudaStatus != cudaSuccess) {return 9;}
Error://释放设备中变量所占内存  cudaFree(dev_c);cudaFree(dev_a);cudaFree(dev_b);return result;
}//显示设备信息
void CUDA_ShowDeviceProp(void)
{int i, count;cudaDeviceProp prop;cudaError_t cudaStatus = cudaGetDeviceCount(&count);if (cudaStatus == cudaSuccess) {std::cout << "共有设备数目:" << count << std::endl;if (count > 0){for (i = 0; i < count; i++){cudaGetDeviceProperties(&prop, i);//获取设备的属性信息std::cout << "第" << i + 1 << "个设备信息:" << std::endl;std::cout << "设备名称:" << prop.name << std::endl;std::cout << "总内存:" << prop.totalGlobalMem / 1048576 << "M" << std::endl;std::cout << "常量内存:" << prop.totalConstMem << "字节" << std::endl;std::cout << "设备中处理器数目:" << prop.multiProcessorCount << "个" << std::endl;std::cout << "每个线程块最多包含线程数目:" << prop.maxThreadsPerBlock << "个" << std::endl;std::cout << "一个线程格中可包含的线程块数目:I=" << prop.maxGridSize[0]<< " J=" << prop.maxGridSize[1] << " K=" << prop.maxGridSize[2] << std::endl;std::cout << "多维线程块中可以包含的最大线程数目:I=" << prop.maxThreadsDim[0]<< " J=" << prop.maxThreadsDim[1] << " K=" << prop.maxThreadsDim[2] << std::endl;}}}else{std::cout << "没有获取到设备信息!请检查计算机是否具有支持CUDA的显卡设备以及CUDA驱动程序版本是否需要更新!" << std::endl;}
}

        CudaDynamicCores.h,前面自动生成的导出类、函数和变量的示例可以删也可以不删,如果删的话,cpp中的实现也一起删掉。在之后加上你自己要导出的函数声明,所有要导出的函数都要用上面宏定义的 CUDADYNAMICCORES_API 修饰,并且用extern "C" 加大括号 { } 括起来。

#ifdef CUDADYNAMICCORES_EXPORTS
#define CUDADYNAMICCORES_API __declspec(dllexport)
#else
#define CUDADYNAMICCORES_API __declspec(dllimport)
#endif// 此类是从 dll 导出的
class CUDADYNAMICCORES_API CCudaDynamicCores {
public:CCudaDynamicCores(void);// TODO: 在此处添加方法。
};extern CUDADYNAMICCORES_API int nCudaDynamicCores;CUDADYNAMICCORES_API int fnCudaDynamicCores(void);extern "C" 
{/********************************************************************************函数:		CUDA_ShowDeviceProp参数:		/返回值:		/说明:		读取设备显卡属性,并打印出来*********************************************************************************/CUDADYNAMICCORES_API void CUDA_ShowDeviceProp(void);/********************************************************************************函数:		CUDA_VectorAdd参数:		[out] c			向量a和向量b相加的结果[in] a			向量相加计算的第一个向量[in] b          向量相加计算的第二个向量[in] size       向量的大小返回值:		计算结果成功和失败的错误码说明:		计算两个向量相加*********************************************************************************/CUDADYNAMICCORES_API int CUDA_VectorAdd(int c[], int a[], int b[], int size);
}

4.添加链接器的附加依赖项

        点击项目名称,右键选择属性,在链接器 —> 输入 —> 附加依赖项,查看其中有没有cudart.lib,VS2022在设置自定义生成为CUDA后这里会自动有集成值cudart.lib,如果没有的话自己手动添加一下,添加后点击应用和确定。

 5.生成

        点击项目名称,右键选择生成,等待编译完成。

        然后就可以在项目目录下看到一个x64文件夹,里面有Debug或者Release文件夹,取决于你刚才生成之前,解决方案项目配置的是Debug还是Release,文件夹下都有一个lib文件和一个dll文件。你需要看调试信息的话就用Debug,不需要的话就编译Release,我这里用的是Release。


 二、Qt中使用编译好的CUDA动态链接库

1.添加头文件和lib文件

        这里和Qt调用其他C++的动态链接库是一样的,首先创建一个 Qt 的项目。在项目路径下新建一个 include 文件夹,然后把前面的 CudaDynamicCores.h 文件放在里面,再新建一个 lib 文件夹,把上面的 CudaDynamicCores.lib 文件放在里面,最后把 CudaDynamicCores.dll 文件放在你程序运行的路径下,也就是和你程序生成的 exe 文件在同一个目录下。

         在 pro 文件中加入下面这两行,引入头文件和lib文件

2.测试 

        这样就可以使用dll中导出的接口函数了,使用下面的代码测试一下,mainwindow.h

#include "mainwindow.h"
#include "ui_mainwindow.h"#include "CudaDynamicCores.h"#include <iostream>MainWindow::MainWindow(QWidget *parent): QMainWindow(parent), ui(new Ui::MainWindow)
{ui->setupUi(this);// 显示设备信息CUDA_ShowDeviceProp();// 两个向量相加int a[5] = {1,2,3,4,5};int b[5] = {3,4,2,3,5};int c[5];CUDA_VectorAdd(c,a,b,5);std::cout << a[0] << ' ' << a[1] << ' ' << a[2] << ' ' << a[3] << ' ' << a[4] << std::endl;std::cout << b[0] << ' ' << b[1] << ' ' << b[2] << ' ' << b[3] << ' ' << b[4] << std::endl;std::cout << c[0] << ' ' << c[1] << ' ' << c[2] << ' ' << c[3] << ' ' << c[4] << std::endl;
}MainWindow::~MainWindow()
{delete ui;
}

         可以看到打印出来的结果,大功告成!


http://www.ppmy.cn/embedded/103456.html

相关文章

在 Deepin 系统中搭建 Node.js 开发环境

Node.js 是基于 Chrome V8 JavaScript 引擎的运行时环境。它使得 JavaScript 不再仅限于前端&#xff0c;而可以扩展到后端开发&#xff0c;从而在传统由 C/C、Java、Go 等语言主导的领域中占据一席之地。JavaScript 语言本身简洁易用&#xff0c;加上 Node.js 提供的大量模块&…

事半功倍:利用增强现实提高工作效率

人们通常认为增强现实只是游戏中的一个强大的功能&#xff0c;然而&#xff0c;研究表明&#xff0c;增强现实在提高工厂的效率和生产力方面也发挥着重要作用。不管增强现实、虚拟现实还是混合现实都能很好地模拟工厂的工作场景&#xff0c;这对于培训、运营、安全和研发方面的…

行为模式6.备忘录模式------文本的撤销和保存

行为型模式 模板方法模式&#xff08;Template Method Pattern&#xff09;命令模式&#xff08;Command Pattern&#xff09;迭代器模式&#xff08;Iterator Pattern&#xff09;观察者模式&#xff08;Observer Pattern&#xff09;中介者模式&#xff08;Mediator Pattern…

Git之1.0版本重要特性及用法实例(五十二)

简介&#xff1a; CSDN博客专家、《Android系统多媒体进阶实战》一书作者. 新书发布&#xff1a;《Android系统多媒体进阶实战》&#x1f680; 优质专栏&#xff1a; Audio工程师进阶系列【原创干货持续更新中……】&#x1f680; 优质专栏&#xff1a; 多媒体系统工程师系列…

房产报备小程序房产报备系统源码搭建方案

房产客户报备小程序开发&#xff0c;php开发语言&#xff0c;前端是uniapp。 房产报备小程序三个端&#xff1a;报备端&#xff08;经纪人报备客户&#xff09;&#xff0c;确客端&#xff08;员工确认报备的客户&#xff09;&#xff0c;管理后台 一 报备端 经纪人报备客户…

浅谈常见的分布式ID生成方案

一、UUID UUID是通用唯一标识码的缩写&#xff0c;其目的是让分布式系统中的所有元素都有唯一的辨识信息&#xff0c;而不需要通过中央控制器来指定唯一标识。 优点&#xff1a; &#xff08;1&#xff09;降低全局节点的压力&#xff0c;使得主键生成速度更快&#xff1b; &…

读懂华为V模型:连接业务与IT,用V模型指导服务化设计

今天笔者带来华为的V模型&#xff0c;与读者一起解读下&#xff0c;V模型是如何连接业务与IT&#xff0c;实现IT产品服务化设计的。 华为用V模型连接业务与IT&#xff0c;指导服务化设计&#xff0c;是一种创新的方法论&#xff0c;旨在通过业务与IT的深度融合&#xff0c;提升…

什么是数据库 DevOps?

原文地址 https://www.bytebase.com/blog/what-is-database-devops/ 在深入研究数据库 DevOps 之前&#xff0c;先回顾一下什么是 DevOps。它没有统一的定义&#xff0c;但我们知道它起源于软件开发方法与部署和运维的结合。 大约 2007 年和 2008 年&#xff0c;软件开发和 I…