nvidia驱动,cuda与cudnn的关系

news/2024/11/9 0:59:55/

一关系阐述:
(1)NVIDIA的显卡驱动程序和CUDA完全是两个不同的概念哦!CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。

CUDA的本质是一个工具包(ToolKit);但是二者虽然不一样的。

显卡驱动的安装:

当我们使用一台电脑的时候默认的已经安装了NVIDIA的显卡驱动,因为没有显卡驱动根本用不了显卡嘛,但是这个时候我们是没有CUDA可以用的,我们可以更新我们的驱动,更新链接为:

https://www.nvidia.com/Download/index.aspx?lang=en-us

在这个里面可以根据自己的显卡类型选择最新的驱动程序。显卡驱动程序当前大小大概500多M。

CUDA ToolKit的安装:

CUDA的下载地址为:https://developer.nvidia.com/cuda-downloads

我们可以选择两种安装方式,一种是在线安装(我还没用过),一中离线安装(我采用的)即本地安装,

当我们选择离线安装,当我们选定相对应的版本之后,下载的时候发现这个地方的文件大小大概在2G左右,Linux系统下面我们选择runfile(local) 完整安装包从本地安装,或者是选择windows的本地安装。CUDA Toolkit本地安装包时内含特定版本Nvidia显卡驱动的,所以只选择下载CUDA Toolkit就足够了,如果想安装其他版本的显卡驱动就下载相应版本即可。

所以,NVIDIA显卡驱动和CUDA工具包本身是不具有捆绑关系的,也不是一一对应的关系,只不过是离线安装的CUDA工具包会默认携带与之匹配的最新的驱动程序。

注意事项:NVIDIA的显卡驱动器与CUDA并不是一一对应的哦,CUDA本质上只是一个工具包而已,所以我可以在同一个设备上安装很多个不同版本的CUDA工具包,比如我的电脑上同事安装了 CUDA 9.0、CUDA 9.2、CUDA 10.0三个版本。一般情况下,我只需要安装最新版本的显卡驱动,然后根据自己的选择选择不同CUDA工具包就可以了,但是由于使用离线的CUDA总是会捆绑CUDA和驱动程序,所以在使用多个CUDA的时候就不要选择离线安装的CUDA了,否则每次都会安装不同的显卡驱动,这不太好,我们直接安装一个最新版的显卡驱动,然后在线安装不同版本的CUDA即可。

总结:CUDA和显卡驱动是没有一一对应的。

(2)cuDNN是一个SDK,是一个专门用于神经网络的加速包,注意,它跟我们的CUDA没有一一对应的关系,即每一个版本的CUDA可能有好几个版本的cuDNN与之对应,但一般有一个最新版本的cuDNN版本与CUDA对应更好。

总结:cuDNN与CUDA没有一一对应的关系

(3)CUDA 工具包附带的 CUPTI。

CUPTI,即CUDA Profiling Tools Interface (CUPTI)。在CUDA分析工具接口(CUPTI)能够分析和跟踪靶向CUDA应用程序的工具的创建。CUPTI提供以下API:
Activity API,Callback API,事件API,Metric API,和Profiler API。
使用这些API,您可以开发分析工具,深入了解CUDA应用程序的CPU和GPU行为。CUPTI作为CUDA支持的所有平台上的动态库提供。请参阅CUPTI文档。

nvidia与cuda需要满足关系:
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

cuda与cudnn需要满足关系:
https://developer.nvidia.com/rdp/cudnn-archive

cuda历史版本下载连接:
https://developer.nvidia.com/cuda-toolkit-archive

Tensorflow不同版本要求与CUDA及CUDNN版本对应关系:
https://blog.csdn.net/u013066730/article/details/88845083


http://www.ppmy.cn/news/335132.html

相关文章

cin、cout的使用

cin、cout的使用 基本内容&#xff1a; (1)有关流对象cin、cout和流运算符的定义等信息是存放在C的输入输出流库中的&#xff0c;因此在程序中使用cin、cout和流运算符&#xff0c;就必须使用预处理命令把头文件stream包含到本文件中. 示教&#xff1a;#include <iostream…

DCC:Deep continuous clustering

文章&#xff1a;NIPS’17 代码&#xff1a;TensorFlow实现&#xff1b;Pytorch实现 经典的聚类算法具有离散结构&#xff1a;需要重新计算质心和数据点之间的关联&#xff0c;或者需要合并假定的聚类。 在任何一种情况下&#xff0c;优化过程都会被离散的重新配置打断。 连续…

Rockchip RK3588 kernel dts解析之PCIe

Rockchip RK3588 kernel dts解析之PCIe 文章目录 Rockchip RK3588 kernel dts解析之PCIeRK3588控制器RK3588 PHY使用限制DTS配置解析硬件设计软件DTS配置其他常见的PCIE配置对应的DTS配置实例pcie3.0phy拆分2个2Lane RC, 3个PCIe 2.0 1Lane(comboPHY)pcie3.0phy拆分为4个1Lane,…

Deep Complex Convolution Recurrent Network(DCCRN模型)

Abstract 深度学习给语音增强带来很多益处&#xff0c;传统的时频域(TF)方法主要通过朴素卷积神经网络(CNN)或递归神经网络(RNN)预测TF掩码或语音频谱。一些研究将将复值谱图作为训练目标&#xff0c;在实值网络中训练&#xff0c;分别预测幅值和相位分量或实部和虚部。特别是…

RK3588 Android平台SPI NOR+PCIE SSD实现大容量存储方案

RK3588 Android平台SPI NORPCIE SSD实现大容量存储方案 硬件配置 硬件方案是基于RK3588S自研平板方案实现。 CPU: RK3588S DDR: LPDDR5 8GB NOR: SPI接口 32MB容量 SSD&#xff1a; PCIE接口 256GB容量 软件版本要求 RK3588 Android12 SDK 升级到RKR8及以上版本RKTools/lin…

CPU、GPU、CUDA,CuDNN 介绍

原http://blog.csdn.net/fangjin_kl/article/details/53906874 一、CPU和GPU的区别 CPU (Central Processing Unit) 即中央处理器GPU (Graphics Processing Unit) 即图形处理器GPGPU全称General Purpose GPU&#xff0c;即通用计算图形处理器。其中第一个“GP”通用目的&#…

Rockchip RK3588 kernel dts解析之电源模块

Rockchip RK3588 kernel dts解析之电源模块 文章目录 Rockchip RK3588 kernel dts解析之电源模块RK3588搭配的电源方案有2种注意单PIMC核双PMIC的软件不能兼容单pmic方案双pmic方案 RK3588搭配的电源方案有2种 单PMIC方案&#xff1a;1个PMIC(RK806)3个DCDC&#xff08;RK860&…

cin和cout

cin和cout 本节教你怎么用C的方式输入输出&#xff0c;比如输出怎么“hello world”。当然&#xff0c;你也可以向你的女朋友输出“I Love you”! 流和缓存区 先别急&#xff0c;要想明白输入输出是怎么回事&#xff0c;就不得不提流和缓冲区 流 “流”即是流动的意思&#…