windows版的docker如何使用宿主机的GPU

server/2025/2/8 0:24:20/

windowsdockerGPU_0">windows版的docker使用宿主机的GPU的命令

命令如下

docker run -it --net=host --gpus all --name 容器-e NVIDIA_DRIVER_CAPABILITIES=compute,utility -e NVIDIA_VISIBLE_DEVICES=all 镜像名

效果

在这里插入图片描述

(transformer) root@docker-desktop:/# python
Python 3.9.0 (default, Nov 15 2020, 14:28:56)
[GCC 7.3.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> torch.cuda.is_available()
True
>>> from transformers import *
/opt/conda/envs/transformer/lib/python3.9/site-packages/transformers/generation_utils.py:24: FutureWarning: Importing `GenerationMixin` from `src/transformers/generation_utils.py` is deprecated and will be removed in Transformers v5. Import as `from transformers import GenerationMixin` instead.warnings.warn(
>>> exit()
(transformer) root@docker-desktop:/# nvidia-smi
Tue Feb  4 12:08:36 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 565.77.01              Driver Version: 566.36         CUDA Version: 12.7     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce GTX 1650        On  |   00000000:01:00.0 Off |                  N/A |
| N/A   48C    P0             15W /   50W |       0MiB /   4096MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------++-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+
(transformer) root@docker-desktop:/#

参考文章


http://www.ppmy.cn/server/165805.html

相关文章

ubuntu20.04+RTX4060Ti大模型环境安装

装显卡驱动 这里是重点,因为我是跑深度学习的,要用CUDA,所以必须得装官方的驱动,Ubuntu的附件驱动可能不太行. 进入官网https://www.nvidia.cn/geforce/drivers/,选择类型,最新版本下载。 挨个运行&#…

如何使用Webpack构建前端应用?

在现代前端开发中,Webpack已成为构建工具的主流选择,它能够帮助开发者打包和优化应用程序的资源。通过Webpack,前端应用的构建流程变得更加高效和灵活,无论是模块化开发,还是性能优化,都能够轻松实现。本文…

DeepSeek-R1 论文. Reinforcement Learning 通过强化学习激励大型语言模型的推理能力

论文链接: [2501.12948] DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 实在太长,自行扔到 Model 里,去翻译去提问吧。 工作原理: 主要技术,就是训练出一些专有用途小模型&…

vue.js组件开发

嘿,小伙伴们!今天咱们来聊聊Vue.js,这可是前端开发里一个超受欢迎的框架。如果你是新手小白,别担心,我用最简单的语言,带你一步步入门Vue.js组件开发。跟着我走,保证你能轻松上手! …

k8s基础

一、概述 1.介绍 Kubernetes(简称K8s)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化应用程序。k8s是google基于go语言开发的自动化运维管理容器。 2.k8s弥补了docker的不足 docker是单机模式,不能实现跨主机部署…

Docker仓库搭建

[rootserver1 ~]# docker push 852791073/webserver:latest ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210125122802637.png?x-oss-processimage/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1bl9fcw,size_16,color_FFFFF…

基于 llama-Factory 动手实践 Llama 全参数 SFT 和 LoRA SFT

一、llama-Factory:你的 Llama 模型 SFT 工厂 llama-Factory 是一个开源的、用户友好的工具,专门用于对 Llama 系列模型进行微调。它提供了简洁的界面和强大的功能,让你无需复杂的代码编写,就能轻松完成 Llama 模型的 SFT 任务&a…

?和.和*在正则表达式里面的区别

在正则表达式中,?、. 和 * 是三种非常重要的元字符,它们各自有不同的功能和用途,以下是它们的区别: ?(问号) 功能:表示前面的元素(字符、字符集、分组等)是可选的&…