pytorch安装GPU版本 (Cuda12.1)教程: Windows、Mac和Linux系统快速安装指南

news/2024/11/15 2:08:07/

在这里插入图片描述

🌷🍁 博主 libin9iOak带您 Go to New World.✨🍁
🦄 个人主页——libin9iOak的博客🎐
🐳 《面试题大全》 文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺
🌊 《IDEA开发秘籍》学会IDEA常用操作,工作效率翻倍~💐
🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬请批评指正!🍁🐥

文章目录

  • GPU版本PyTorch(CUDA 12.1)清华源快速安装教程
    • 摘要
    • 前言
    • 1. 在Windows系统上安装GPU版本PyTorch(CUDA 12.1)
      • 步骤1:检查GPU兼容性
      • 步骤2:安装NVIDIA驱动程序
      • 步骤3:安装CUDA Toolkit
      • 步骤4:配置环境变量
      • 步骤5:创建虚拟环境
      • 步骤6:设置清华源
      • 步骤7:安装PyTorch
      • 步骤8:验证安装是否成功
    • 2. 在Mac系统上安装GPU版本PyTorch(CUDA 12.1)
      • 步骤1:检查GPU兼容性
      • 步骤2:安装Xcode
      • 步骤3:安装Homebrew
      • 步骤4:安装CUDA Toolkit
      • 步骤5:创建虚拟环境
      • 步骤6:设置清华源
      • 步骤7:安装PyTorch
      • 步骤8:验证安装是否成功
    • 3. 在Linux系统上安装GPU版本PyTorch(CUDA 12.1)
      • 步骤1:检查GPU兼容性
      • 步骤2:安装NVIDIA驱动程序
      • 步骤3:安装CUDA Toolkit
      • 步骤4:配置环境变量
      • 步骤5:创建虚拟环境
      • 步骤6:设置清华源
      • 步骤7:安装PyTorch
      • 步骤8:验证安装是否成功
    • 今日学习总结
  • 原创声明

GPU版本PyTorch(CUDA 12.1)清华源快速安装教程

在这里插入图片描述

摘要

本教程将为您提供在Windows、Mac和Linux系统上安装和配置GPU版本的PyTorch(CUDA 12.1)的详细步骤。我们将使用清华大学开源软件镜像站作为软件源以加快下载速度。在今天的学习中,您将学会如何在不同操作系统上轻松安装和配置深度学习框架PyTorch,为您的AI项目做好准备。

前言

PyTorch是一个流行的开源深度学习框架,由Facebook AI Research实验室开发和维护。它提供了广泛的工具和函数,用于构建和训练各种神经网络模型。GPU版本的PyTorch可以利用GPU的并行计算能力来加速训练过程,从而显著提高深度学习模型的训练速度。

在本教程中,我们将分别介绍在Windows系统、Mac系统和Linux系统上安装和配置GPU版本的PyTorch(CUDA 12.1)。我们将使用清华大学开源软件镜像站作为软件源,以便快速下载所需的软件包。

1. 在Windows系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

首先,确保您的Windows计算机配备了兼容的NVIDIA GPU。访问NVIDIA官方网站查找GPU的兼容性列表。

步骤2:安装NVIDIA驱动程序

前往NVIDIA官方网站下载并安装适用于您的GPU型号的最新驱动程序。

步骤3:安装CUDA Toolkit

从NVIDIA官方网站下载并安装与您的GPU兼容的CUDA Toolkit(版本12.1)。

步骤4:配置环境变量

将CUDA Toolkit的安装路径添加到系统环境变量中,以便PyTorch能够正确找到CUDA。

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Windows系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

2. 在Mac系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

确保您的Mac计算机搭载了支持Metal的GPU。访问苹果官方网站查找GPU的兼容性列表。

步骤2:安装Xcode

从Mac App Store下载并安装Xcode,它包含必要的开发工具和编译器。

步骤3:安装Homebrew

在终端中运行安装Homebrew的命令,以便之后安装其他软件。

步骤4:安装CUDA Toolkit

使用Homebrew安装与您的Mac GPU兼容的CUDA Toolkit(版本12.1):

brew install --cask cuda@11.1

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Mac系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

3. 在Linux系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

确保您的Linux计算机搭载了兼容的NVIDIA GPU。访问NVIDIA官方网站查找GPU的兼容性列表。

步骤2:安装NVIDIA驱动程序

根据您的Linux发行版,从NVIDIA官方网站或使用包管理器安装适用于您的GPU型号的最新驱动程序。

步骤3:安装CUDA Toolkit

使用以下命令在Linux系统上下载并安装与您的GPU兼容的CUDA Toolkit(版本12.1):

wget https://developer.download.nvidia.com/compute/cuda/11.1.1/local_installers/cuda_11.1.1_455.32.00_linux.run
sudo sh cuda_11.1.1_455.32.00_linux.run

步骤4:配置环境变量

将CUDA Toolkit的安装路径添加到系统环境变量中,以便PyTorch能够正确找到CUDA。

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Linux系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

今日学习总结

在本教程中,我们详细介绍了在Windows、Mac和Linux系统上安装和配置GPU版本的PyTorch(CUDA 12.1)。您学会了检查GPU兼容性、安装NVIDIA驱动程序和CUDA Toolkit、设置环境变量以及使用清华源加速安装过程。最后,您还验证了PyTorch是否成功使用了GPU加速。

通过学习本教程,您现在已经掌握了在不同操作系统上安装GPU版本PyTorch的方法,为深度学习项目的开发和研究做好了准备。祝您在未来的学习和实践中取得更多成果!如有任何问题或疑惑,请随时留言,我们将乐意为您解答。感谢您的阅读!

原创声明

=======

作者: [ libin9iOak ]


本文为原创文章,版权归作者所有。未经许可,禁止转载、复制或引用。

作者保证信息真实可靠,但不对准确性和完整性承担责任。

未经许可,禁止商业用途。

如有疑问或建议,请联系作者。

感谢您的支持与尊重。

点击下方名片,加入IT技术核心学习团队。一起探索科技的未来,共同成长。


http://www.ppmy.cn/news/976668.html

相关文章

分享一个开源的Base64解码编码工具站源码

base64.kr 网址:base64.kr GIT 地址:base64.kr 背景 我喜欢(or 我需要) 作为程序员,平常工作中经常有用 Base64 解码调试程序的场景,这是 [我有需求] 其他用户有需要 然后之前几个月在 similarweb 看了下数据,当…

【顺序表的增删查改】

顺序表的增删查改 // SeqList.h #pragma once #include <stdio.h> #include <assert.h> #include <stdlib.h>typedef int SLDateType; typedef struct SeqList {SLDateType* a;int size;int capacity; }SeqList;// 对数据的管理:增删查改 void SeqListInit…

红包雨架构的设计汇总

一 微服务总体架构 1.1 微服务总体架构 1.2 红包雨的流程 1.3 发红包的内容 1.3.1 概述流程 1.发红包-》抢红包。 1.所有人签到的金额之和等于红包总金额。2.每个人至少抢到一分钱&#xff1b;3.保证所有人抢到金额的几率相等。 1.3.2 拆分红包通用流程算法 其中拆红包最…

java开发岗位简历模板

Garry 1xx-xxxx-xxxx Java开发、数据库设计、脚本编写 xxxx592.com 求职意向 Java工程师 专业技能 c, oracle, sql server, mysql, javascript 熟练 java认证考试 初级程序员 全国计算机软件技术资格与水平考试 助理工程师 windows系统, linux系统 熟练 大学英…

MySQL 读写分离

目录 一、什么是读写分离&#xff1f; 二、为什么要读写分离呢&#xff1f; 三、什么时候要读写分离&#xff1f; 四、主从复制与读写分离 五、MySQL 读写分离原理 六、企业 使用MySQL 读写分离场景 1&#xff09;基于程序代码内部实现 2&#xff09;基于中间代理层实现…

华为鸿蒙HarmonyOS 4定档8月;ChatGPT之父的加密货币正式上线;微软必应聊天将推出重新生成答案功能|极客头条

「极客头条」—— 技术人员的新闻圈&#xff01; CSDN 的读者朋友们早上好哇&#xff0c;「极客头条」来啦&#xff0c;快来看今天都有哪些值得我们技术人关注的重要新闻吧。 整理 | 梦依丹 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 一分钟速览新闻点&…

echarts自定义tooltip,给tooltip增加百分号%

1.formatter为回调函数&#xff1a; 支持返回 HTML 字符串或者创建的 DOM 实例。 (params: Object|Array, ticket: string, callback: (ticket: string, html: string)) > string | HTMLElement | HTMLElement[] 在 trigger 为 ‘axis’ 的时候&#xff0c;或者 tooltip 被…

云服务器远程nacos服务注册失败/不健康Client not connected, current status:STARTING

文章目录 Nacos报错docker安装不用 docker安装 Nacos报错 docker安装 使用docker在云服务器安装Nacos之后出现Client not connected, current status:STARTING 使用docker 安装之后需要添加映射端口 docker run -e JAVA_OPTS"-Xms256m -Xmx256m"-e MODEstandalone…