NVIDIA 不同显卡对应的GPU计算能力

news/2024/12/2 4:38:01/
  • Fermi (CUDA 3.2 until CUDA 8) (deprecated from CUDA 9):
    • SM20 or SM_20, compute_30 – Older cards such as GeForce 400, 500, 600, GT-630
  • Kepler (CUDA 5 and later):
    • SM30 or SM_30, compute_30 – Kepler architecture (generic – Tesla K40/K80, GeForce 700, GT-730)
      Adds support for unified memory programming
    • SM35 or SM_35, compute_35 – More specific Tesla K40
      Adds support for dynamic parallelism. Shows no real benefit over SM30 in my experience.
    • SM37 or SM_37, compute_37 – More specific Tesla K80
      Adds a few more registers. Shows no real benefit over SM30 in my experience
  • Maxwell (CUDA 6 and later):
    • SM50 or SM_50, compute_50 – Tesla/Quadro M series
    • SM52 or SM_52, compute_52 – Quadro M6000 , GeForce 900, GTX-970, GTX-980, GTX Titan X
    • SM53 or SM_53, compute_53 – Tegra (Jetson) TX1 / Tegra X1
  • Pascal (CUDA 8 and later)
    • SM60 or SM_60, compute_60 – GP100/Tesla P100 – DGX-1 (Generic Pascal)
    • SM61 or SM_61, compute_61 – GTX 1080, GTX 1070, GTX 1060, GTX 1050, GTX 1030, Titan Xp, Tesla P40, Tesla P4, Discrete GPU on the NVIDIA Drive PX2
    • SM62 or SM_62, compute_62 – Integrated GPU on the NVIDIA Drive PX2, Tegra (Jetson) TX2
  • Volta (CUDA 9 and later)
    • SM70 or SM_70, compute_70 – Tesla V100, GTX 1180 (GV104)
    • SM71 or SM_71, compute_71 – probably not implemented
    • SM72 or SM_72, compute_72 – currently unknown
  • Turing (CUDA 10 and later)
    • SM75 or SM_75, compute_75 – RTX 2080, Titan RTX, Quadro R8000

扫码关注

实用AI客栈

获取最新AI资讯与实战案例

小编微信号 : langu86

参考网址:http://arnon.dk/matching-sm-architectures-arch-and-gencode-for-various-nvidia-cards/


http://www.ppmy.cn/news/307016.html

相关文章

近距离看GPU计算(2)

在《近距离看GPU计算》系列第一篇里我们介绍了GPU的一些基础知识及其如何从图形加速设备演化到通用计算平台。本文我们会具体从处理单元设计和存储层次结构两个方面探讨GPU不同于CPU的特点,再次确认我们反复申明的GPU更重视整体的Throughput而CPU更在乎具体任务的La…

C# 调用GPU计算(Alea库、英伟达GPU)

关于C#调用GPU计算&#xff0c;下面是stackoverflow的一段总结&#xff1a; 链接&#xff1a;<https://stackoverflow.com/questions/375011/utilizing-the-gpu-with-c-sharp> &#xff1a; Most of these answers are quite old, so I thought Id give an updated sum…

Tensorflow多GPU计算

下面的代码都是在tensorflow版本 1.8 运行的Tensorflow 使用GPU训练的时候一个小说明 1. tensorflow 默认占满所有可用GPU 2. 如果一台机器上有多个GPU&#xff0c;那么默认只会有第一块GPU参与计算&#xff0c;其余的会白白浪费掉单机单卡 常规操作&#xff0c;省略单机多卡…

boost.compute使用gpu计算(c++)

boost.compute https://github.com/boostorg/compute 编译错误 cl.h找不到 下载opencl的头文件&#xff0c;icd&#xff08;源码&#xff09;和demo https://gitee.com/zhanghe666/OpenCL-Headers.git https://gitee.com/zhanghe666/OpenCL-ICD-Loader.git https://gitee.co…

GPU平台并行计算

1、GPU架构概述 GPU是一种众核架构&#xff0c;非常适合解决大规模的并行计算。GPU是CPU的协处理器&#xff0c;必须通过PCIe总线与基于CPU的主机&#xff08;Host&#xff09;相连来进行操作&#xff0c;形成异构架构&#xff0c;如下图所示。其中CPU为主机端&#xff08;Hos…

Windows系统下实现Fortran语言的GPU计算

1.安装 visual studio2015ivf2017update4 2.安装Windows SDK 10&#xff0c;这一步取决于第三步安装PGI时是否提示需要安装WindowsSDK 3.安装PGI CE 18.4 注意事项&#xff1a; 1.三个软件必须安装在同一个盘下&#xff0c;否则安装后的PGI CE 无法编译。因为Windows10 SD…

CUDA学习笔记 —— (三)GPU计算性能与线程关系

文章目录 概述CPU运行GPU运行单线程GPU 1block 多线程运行多block多线程结果比对 概述 我们通过一个例子&#xff0c;相同的计算&#xff0c;我们分别在CPU&#xff0c;GPU单线程&#xff0c;GPU单block多线程&#xff0c;GPU多block多线程来运行对比。看GPU是如何大幅提升运算…

CPU与GPU计算能力比较

本文对比几个算法分别在CPU上计算&#xff0c;与GPU上计算的耗时。 测试环境&#xff1a; CPU: Intel(R)_Core(TM)_i7-7700_CPU__3.60GHz x 8 GPU: NVIDIA GeForce GTX 1050 一&#xff0c;FFT计算的性能分析。 1&#xff0c;dft离散傅里叶变换的公式如下。 X为源数据&am…