Kubernetes—k8s集群存储卷(pvc存储卷)

embedded/2024/11/9 16:43:09/

目录

一、PVC 和 PV 

1.PV

2.PVC

3.StorageClass

4.PV和PVC的生命周期

二、实操

1.创建静态pv

1.配置nfs

2.创建pv

3.创建pvc

4.结合pod,将pv、pvc一起运行

2.创建动态pv

1.上传

2.创建 Service Account,用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置 nfs-client 对 PV,PVC,StorageClass 等的规则

3.创建 StorageClass,负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联

4.创建 PVC 和 Pod 测试

5.测试不备份


一、PVC 和 PV 

1.PV

PV 全称叫做 Persistent Volume,持久化存储卷。它是用来描述或者说用来定义一个存储卷的,这个通常都是由运维工程师来定义。

2.PVC

PVC 的全称是 Persistent Volume Claim,是持久化存储的请求。它是用来描述希望使用什么样的

或者说是满足什么条件的 PV 存储。

PVC 的使用逻辑:在 Pod 中定义一个存储卷(该存储卷类型为 PVC),定义的时候直接指定大

小,PVC 必须与对应的 PV 建立关系,PVC 会根据配置的定义去 PV 申请,而 PV 是由存储空间

创建出来的。PV 和 PVC 是 Kubernetes 抽象出来的一种存储资源。

3.StorageClass

上面介绍的PV和PVC模式是需要运维人员先创建好PV,然后开发人员定义好PVC进行一对一的

Bond,但是如果PVC请求成千上万,那么就需要创建成千上万的PV,对于运维人员来说维护成本

很高,Kubernetes提供一种自动创建PV的机制,叫StorageClass,它的作用就是创建PV的模板。

创建 StorageClass 需要定义 PV 的属性,比如存储类型、大小等;另外创建这种 PV 需要用到的

存储插件,比如 Ceph 等。 有了这两部分信息,Kubernetes 就能够根据用户提交的 PVC,找到对

应的 StorageClass,然后 Kubernetes 就会调用 StorageClass 声明的存储插件,自动创建需要的

PV 并进行绑定

PV是集群中的资源。 PVC是对这些资源的请求,也是对资源的索引检查

4.PV和PVC的生命周期

PV和PVC之间的相互作用遵循这个生命周期

Provisioning(配置)---> Binding(绑定)---> Using(使用)---> Releasing(释放) --->

Recycling(回收)

  • Provisioning,即 PV 的创建,可以直接创建 PV(静态方式),也可以使用 StorageClass 动态创建
  • Binding,将 PV 分配给 PVC
  • Using,Pod 通过 PVC 使用该 Volume,并可以通过准入控制StorageProtection(1.9及以前版本为PVCProtection) 阻止删除正在使用的 PVC
  • Releasing,Pod 释放 Volume 并删除 PVC
  • Recycling,回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

根据这 5 个阶段,PV 的状态有以下 4 种

  • Available(可用):表示可用状态,还未被任何 PVC 绑定
  • Bound(已绑定):表示 PV 已经绑定到 PVC
  • Released(已释放):表示 PVC 被删掉,但是资源尚未被集群回收
  • Failed(失败):表示如果 PV 或 PVC 遇到无法解决的问题,例如配额不足、配置错误或者绑定过程中的异常情况,可能会进入 Failed 状态

一个PV从创建到销毁的具体流程如下:

  1. 一个PV创建完后状态会变成Available,等待被PVC绑定。
  2. 一旦被PVC邦定,PV的状态会变成Bound,就可以被定义了相应PVC的Pod使用。
  3. Pod使用完后会释放PV,PV的状态变成Released。
  4. 变成Released的PV会根据定义的回收策略做相应的回收工作。有三种回收策略,Retain、Delete和Recycle。Retain就是保留现场,K8S集群什么也不做,等待用户手动去处理PV里的数据,处理完后,再手动删除PV。Delete策略,K8S会自动删除该PV及里面的数据。Recycle方式,K8S会将PV里的数据删除,然后把PV的状态变成Available,又可以被新的PVC绑定使用

二、实操

1.创建静态pv

1.配置nfs

192.168.80.100服务器配置nfs

mkdir -p /data/volumes/v{1..5}
vim /etc/exports
/data/volumes/v1 192.168.80.0/24(rw,sync,no_root_squash)
/data/volumes/v2 192.168.80.0/24(rw,sync,no_root_squash)
/data/volumes/v3 192.168.80.0/24(rw,sync,no_root_squash)
/data/volumes/v4 192.168.80.0/24(rw,sync,no_root_squash)
/data/volumes/v5 192.168.80.0/24(rw,sync,no_root_squash)exportfs -arv
2.创建pv
 
  1.  
    vim demo1-pv.yaml
    apiVersion: v1
    kind: PersistentVolume
    metadata:      #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespacename: pv001
    spec:capacity:                               定义存储能力,一般用于设置存储空间storage: 1Gi                          指定大小accessModes:                            定义访问模式- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle 回收策略#storageClassName: slow                 自定义存储类名称,此配置用于绑定具有相同类别的PVC和PVnfs:                                    定义存储类型path: /data/volumes/v1                定义挂载卷路径server: 192.168.80.101                 定义服务器名称
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv002
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv003
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv004
    spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv005
    spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v5server: 192.168.80.100
    ---kubectl apply -f demo1-pv.yaml
    3.创建pvc
    vim demo2-pvc.yaml
    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:name: mypvc001
    spec:accessModes:- ReadWriteManyresources:requests:storage: 2Gi#storageClassName: slow
    kubectl apply -f demo2-pvc.yaml
    kubectl apply -f demo2-pvc.yaml   #再以同样的文件创建pvc
    kubectl get pv,pvc
    #可以发现即使条件再匹配,也不会与原先处于released状态的pv匹配
    vim demo1-pv.yaml
    apiVersion: v1
    kind: PersistentVolume
    metadata:      #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespacename: pv001
    spec:capacity:                               定义存储能力,一般用于设置存储空间storage: 1Gi                          指定大小accessModes:                            定义访问模式- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle 回收策略#storageClassName: slow                 自定义存储类名称,此配置用于绑定具有相同类别的PVC和PVnfs:                                    定义存储类型path: /data/volumes/v1                定义挂载卷路径server: 192.168.80.100                定义服务器名称
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv002
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv003
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteMany persistentVolumeReclaimPolicy: Recycle     #当设置指定访问策略为 Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv004
    spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv005
    spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v5server: 192.168.80.100
    ---kubectl apply -f demo1-pv.yaml
    kubectl apply -f demo2-pvc.yaml
    kubectl get pv,pvc
    4.结合pod,将pv、pvc一起运行
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv001
    spec:capacity:storage: 1GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v1server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv002
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv003
    spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteManypersistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv004
    spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteManypersistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.80.100
    ---
    apiVersion: v1
    kind: PersistentVolume
    metadata:name: pv005
    spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: liunfs:path: /data/volumes/v5server: 192.168.80.100
    ---kubectl apply -f demo1-pv.yamlvim demo2-pvc.yaml
    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:name: mypvc001
    spec:accessModes:- ReadWriteManyresources:requests:storage: 2Gi#storageClassName: liukubectl apply -f demo2-pvc.yaml
    vim demo3-pod.yaml
    apiVersion: v1
    kind: Pod
    metadata:creationTimestamp: nulllabels:run: demo3name: demo3-pod
    spec:volumes:                     - name: tan-volpersistentVolumeClaim:claimName: mypvc001         #创建的pvc名称containers:- image: soscscs/myapp:v1name: demoports:- containerPort: 80resources: {}volumeMounts:- name: tan-volmountPath: /mnt/dnsPolicy: ClusterFirstrestartPolicy: Always
    status: {}kubectl apply -f demo3-pod.yaml
    kubectl delete pod demo3-pod

    2.创建动态pv

1.上传

上传nfs-client-provisioner.tar 、nfs-client.zip压缩包到master节点上传nfs-client-provisioner.tar到两个node节点

2.创建 Service Account,用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置 nfs-client 对 PV,PVC,StorageClass 等的规则

master节点
kubectl apply -f nfs-client-rbac.yaml
kubectl get serviceaccounts
vim /etc/kubernetes/manifests/kube-apiserver.yaml- --feature-gates=RemoveSelfLink=false       #添加这一行
由于 1.20 版本禁用了 selfLink,所以 k8s 1.20+ 版本通过 nfs provisioner 动态生成 PV 会报错,需要添加
cd /etc/kubernetes/manifests
mv kube-apiserver.yaml /tmp/                #进行重启操作
mv /tmp/kube-apiserver.yaml ./
nfs服务器
vim /etc/exports
/opt/nfs 192.168.80.0/24(rw,sync,no_root_squash)
exportfs -avr
两个node节点检查#创建 NFS Provisionermaster节点
cd /root/day9/pv
vim nfs-client-provisioner.yamlkubectl apply -f nfs-client-provisioner.yaml

3.创建 StorageClass,负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联

vim nfs-client-storageclass.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: nfs-client-storageclass
provisioner: nfs-tan        #要与 nfs-client-provisioner.yaml中设置的一致
parameters:archiveOnDelete: "true"   #做数据备份kubectl apply -f nfs-client-storageclass.yaml

4.创建 PVC 和 Pod 测试

vim demo2-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvc003
spec:accessModes:- ReadWriteManyresources:requests:storage: 2GistorageClassName: nfs-client-storageclass

5.测试不备份

vim nfs-client-storageclass.yamlkubectl delete -f nfs-client-storageclass.yaml && kubectl apply -f nfs-client-storageclass.yaml
kubectl get pv,pvc
vim pod.yaml
apiVersion: v1
kind: Pod
metadata:labels:run: demo3name: dem3-pod
spec:volumes:- name: scj-volpersistentVolumeClaim:claimName: mypvc003containers:- image: soscscs/myapp:v1name: myappports:- containerPort: 80resources: {}volumeMounts:- name: scj-volmountPath: /mntdnsPolicy: ClusterFirstrestartPolicy: Always
status: {}kubectl apply -f pod.yaml
kubectl exec -it dem3-pod -- sh
cd /mnt
echo '123456' > liu.txt
kubectl delete pod dem3-pod
kubectl delete pvc mypvc003  #删除查看是否备份


http://www.ppmy.cn/embedded/95914.html

相关文章

吃透前端文件上传与文件相关操作 多文件上传 大文件切片上传 拖拽上传 后续还会更新 断点续传等等

最近在学文件上传的操作,所以想把学习到东西写成一文章 这片文章是我以小白视角 慢慢学习并熟悉前端文件相关操作的流程总结出来的 前端文件上传 我首先想到是 <input type"file">**选择文件**</input>如果我们想限制上传文件的格式,大小或进行裁剪分片…

Java基础——包装类

为什么需要包装类 Java提供了两个类型系统&#xff0c;基本数据类型与引用数据类型。使用基本数据类型在于效率&#xff0c;然而当要使用只针对对象设计的API或新特性&#xff08;例如泛型&#xff09;&#xff0c;怎么办呢&#xff1f;例如&#xff1a; //情况1&#xff1a;…

开放式耳机原理?更加安全舒适的选择

开放式耳机&#xff0c;顾名思义&#xff0c;就是指耳机的耳塞部分并不完全封闭&#xff0c;允许外界的声音进入耳朵。这种设计有几个主要的原理和特点&#xff1a; 自然声场&#xff1a;开放式耳机由于不完全封闭耳道&#xff0c;类似于在开放空间中听音乐。 环境感知&#xf…

使用国内镜像站点安装Qt6 for Mac

使用国内镜像站点安装Qt6 for Mac 从下列网址下载在线安装包 Index of /archive/online_installers (qt.io) 双击前述dmg文件&#xff0c;在终端执行语句 使用一句命令行语句&#xff1a; open qt-unified-macOS-x64-4.6.1-online/qt-unified-macOS-x64-4.6.1-online.app --…

H5棋牌游戏安全防护指南:应对黑客攻击

概述 随着H5技术的发展&#xff0c;越来越多的棋牌游戏选择使用HTML5进行开发。然而&#xff0c;H5应用的安全问题也随之凸显&#xff0c;尤其是棋牌游戏这类涉及大量资金交易的应用。本文将介绍几种常见的针对H5棋牌游戏的攻击方式以及相应的防御措施。 攻击类型 1. XSS&am…

Codigger视频会议(Meeting):科技行业软件开发团队的协作革新

在数字化时代&#xff0c;软件开发团队的协作方式正在经历一场革命。远程工作已成为新常态&#xff0c;而Codigger视频会议&#xff08;Meeting&#xff09;作为这场变革的催化剂&#xff0c;正在帮助科技行业的团队突破地理限制&#xff0c;实现无缝协作。 随着科技行业的快速…

ESP32人脸识别开发--人脸识别模型(六)

ESP-DL ESP-DL 为**神经网络推理**、**图像处理**、**数学运算**以及一些**深度学习模型**提供 API&#xff0c;通过 ESP-DL 能够快速便捷地将乐鑫各系列芯片产品用于人工智能应用 ESP-DL 无需借助任何外围设备&#xff0c;因此可作为一些项目的组件&#xff0c;例如可将其作…

【重磅官宣】追光少年魏堃明荣耀担任“中国美育促进网IPA美育中国行”品牌大使

在美育的璀璨星空中&#xff0c;一位才华横溢、品格高尚的少年——魏堃明&#xff08;英文名&#xff1a;ENZO&#xff09;&#xff0c;以他不懈追求卓越的精神和卓越的表现&#xff0c;展现出少年榜样的风采。中国美育促进网携手IPA美育中国行正式宣布&#xff0c;年仅7岁的魏…