当前位置: 首页 > news >正文

关于k8s的pvc存储卷

目录

1.PVC 和 PV 

1.1 PV

1.2 PVC

1.3 StorageClass

1.4 PV和PVC的生命周期

2.实战演练

2.1 创建静态pv

2.2 创建动态pv

3.总结


1.PVC 和 PV 

1.1 PV

PV 全称叫做 Persistent Volume,持久化存储卷。它是用来描述或者说用来定义一个存储卷的,这个通常都是由运维工程师来定义。

1.2 PVC

PVC 的全称是 Persistent Volume Claim,是持久化存储的请求。它是用来描述希望使用什么样的或者说是满足什么条件的 PV 存储。

PVC 的使用逻辑:在 Pod 中定义一个存储卷(该存储卷类型为 PVC),定义的时候直接指定大小,PVC 必须与对应的 PV 建立关系,PVC 会根据配置的定义去 PV 申请,而 PV 是由存储空间创建出来的。PV 和 PVC 是 Kubernetes 抽象出来的一种存储资源。

1.3 StorageClass

上面介绍的PV和PVC模式是需要运维人员先创建好PV,然后开发人员定义好PVC进行一对一的Bond,但是如果PVC请求成千上万,那么就需要创建成千上万的PV,对于运维人员来说维护成本很高,Kubernetes提供一种自动创建PV的机制,叫StorageClass,它的作用就是创建PV的模板。

创建 StorageClass 需要定义 PV 的属性,比如存储类型、大小等;另外创建这种 PV 需要用到的存储插件,比如 Ceph 等。 有了这两部分信息,Kubernetes 就能够根据用户提交的 PVC,找到对应的 StorageClass,然后 Kubernetes 就会调用 StorageClass 声明的存储插件,自动创建需要的 PV 并进行绑定。

PV是集群中的资源。 PVC是对这些资源的请求,也是对资源的索引检查。 

1.4 PV和PVC的生命周期

PV和PVC之间的相互作用遵循这个生命周期:
Provisioning(配置)---> Binding(绑定)---> Using(使用)---> Releasing(释放) ---> Recycling(回收)

●Provisioning,即 PV 的创建,可以直接创建 PV(静态方式),也可以使用 StorageClass 动态创建
●Binding,将 PV 分配给 PVC
●Using,Pod 通过 PVC 使用该 Volume,并可以通过准入控制StorageProtection(1.9及以前版本为PVCProtection) 阻止删除正在使用的 PVC
●Releasing,Pod 释放 Volume 并删除 PVC
●Recycling,回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

根据这 5 个阶段,PV 的状态有以下 4 种:
●Available(可用):表示可用状态,还未被任何 PVC 绑定
●Bound(已绑定):表示 PV 已经绑定到 PVC
●Released(已释放):表示 PVC 被删掉,但是资源尚未被集群回收
●Failed(失败):表示如果 PV 或 PVC 遇到无法解决的问题,例如配额不足、配置错误或者绑定过程中的异常情况,可能会进入 Failed 状态

一个PV从创建到销毁的具体流程如下:
1、一个PV创建完后状态会变成Available,等待被PVC绑定。
2、一旦被PVC邦定,PV的状态会变成Bound,就可以被定义了相应PVC的Pod使用。
3、Pod使用完后会释放PV,PV的状态变成Released。
4、变成Released的PV会根据定义的回收策略做相应的回收工作。有三种回收策略,Retain、Delete和Recycle。Retain就是保留现场,K8S集群什么也不做,等待用户手动去处理PV里的数据,处理完后,再手动删除PV。Delete策略,K8S会自动删除该PV及里面的数据。Recycle方式,K8S会将PV里的数据删除,然后把PV的状态变成Available,又可以被新的PVC绑定使用。

2.实战演练

2.1 创建静态pv

根据下图创建pv、pvc及配置nfs

配置nfs

192.168.9.116服务器配置nfs,
mkdir -p /data/volumes/v{1..5}
vim /etc/exports
/data/volumes/v1 192.168.9.0/24(rw,sync,no_root_squash)
/data/volumes/v2 192.168.9.0/24(rw,sync,no_root_squash)
/data/volumes/v3 192.168.9.0/24(rw,sync,no_root_squash)
/data/volumes/v4 192.168.9.0/24(rw,sync,no_root_squash)
/data/volumes/v5 192.168.9.0/24(rw,sync,no_root_squash)exportfs -arv



创建pv

vim demo1-pv.yaml
apiVersion: v1
kind: PersistentVolume
metadata:      #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespacename: pv001
spec:capacity:                               定义存储能力,一般用于设置存储空间storage: 1Gi                          指定大小accessModes:                            定义访问模式- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle 回收策略#storageClassName: slow                 自定义存储类名称,此配置用于绑定具有相同类别的PVC和PVnfs:                                    定义存储类型path: /data/volumes/v1                定义挂载卷路径server: 192.168.9.116                 定义服务器名称
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004
spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005
spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v5server: 192.168.9.116
---kubectl apply -f demo1-pv.yaml

创建pvc

vim demo2-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvc001
spec:accessModes:- ReadWriteManyresources:requests:storage: 2Gi#storageClassName: slow
kubectl apply -f demo2-pvc.yaml

kubectl apply -f demo2-pvc.yaml   #再以同样的文件创建pvc
kubectl get pv,pvc
#可以发现即使条件再匹配,也不会与原先处于released状态的pv匹配

vim demo1-pv.yaml
apiVersion: v1
kind: PersistentVolume
metadata:      #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespacename: pv001
spec:capacity:                               定义存储能力,一般用于设置存储空间storage: 1Gi                          指定大小accessModes:                            定义访问模式- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle 回收策略#storageClassName: slow                 自定义存储类名称,此配置用于绑定具有相同类别的PVC和PVnfs:                                    定义存储类型path: /data/volumes/v1                定义挂载卷路径server: 192.168.9.116                 定义服务器名称
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteMany persistentVolumeReclaimPolicy: Recycle     #当设置指定访问策略为 Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004
spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005
spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v5server: 192.168.9.116
---kubectl apply -f demo1-pv.yaml
kubectl apply -f demo2-pvc.yaml
kubectl get pv,pvc

结合pod,将pv、pvc一起运行

apiVersion: v1
kind: PersistentVolume
metadata:name: pv001
spec:capacity:storage: 1GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v1server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce#persistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v2server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003
spec:capacity:storage: 2GiaccessModes:- ReadWriteOnce- ReadWriteManypersistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v3server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004
spec:capacity:storage: 4GiaccessModes:- ReadWriteOnce- ReadWriteManypersistentVolumeReclaimPolicy: Recycle#storageClassName: slownfs:path: /data/volumes/v4server: 192.168.9.116
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005
spec:capacity:storage: 5GiaccessModes:- ReadWriteOnce- ReadWriteMany#persistentVolumeReclaimPolicy: Recycle#storageClassName: tannfs:path: /data/volumes/v5server: 192.168.9.116
---kubectl apply -f demo1-pv.yamlvim demo2-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvc001
spec:accessModes:- ReadWriteManyresources:requests:storage: 2Gi#storageClassName: tankubectl apply -f demo2-pvc.yaml

vim demo3-pod.yaml
apiVersion: v1
kind: Pod
metadata:creationTimestamp: nulllabels:run: demo3name: demo3-pod
spec:volumes:                     - name: tan-volpersistentVolumeClaim:claimName: mypvc001         #创建的pvc名称containers:- image: soscscs/myapp:v1name: demoports:- containerPort: 80resources: {}volumeMounts:- name: tan-volmountPath: /mnt/dnsPolicy: ClusterFirstrestartPolicy: Always
status: {}kubectl apply -f demo3-pod.yaml


kubectl delete pod demo3-pod

2.2 创建动态pv

上传nfs-client-provisioner.tar 、nfs-client.zip压缩包到master节点上传nfs-client-provisioner.tar到两个node节点



创建 Service Account,用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置 nfs-client 对 PV,PVC,StorageClass 等的规则

master节点
kubectl apply -f nfs-client-rbac.yaml
kubectl get serviceaccounts

vim /etc/kubernetes/manifests/kube-apiserver.yaml- --feature-gates=RemoveSelfLink=false       #添加这一行
由于 1.20 版本禁用了 selfLink,所以 k8s 1.20+ 版本通过 nfs provisioner 动态生成 PV 会报错,需要添加
cd /etc/kubernetes/manifests
mv kube-apiserver.yaml /tmp/                #进行重启操作
mv /tmp/kube-apiserver.yaml ./

nfs服务器
vim /etc/exports
/opt/nfs 192.168.9.0/24(rw,sync,no_root_squash)
exportfs -avr
两个node节点检查#创建 NFS Provisionermaster节点
cd /root/day9/pv
vim nfs-client-provisioner.yamlkubectl apply -f nfs-client-provisioner.yaml

创建 StorageClass,负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联

vim nfs-client-storageclass.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: nfs-client-storageclass
provisioner: nfs-tan        #要与 nfs-client-provisioner.yaml中设置的一致
parameters:archiveOnDelete: "true"   #做数据备份kubectl apply -f nfs-client-storageclass.yaml

创建 PVC 和 Pod 测试

vim demo2-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvc003
spec:accessModes:- ReadWriteManyresources:requests:storage: 2GistorageClassName: nfs-client-storageclass



测试不备份:

vim nfs-client-storageclass.yamlkubectl delete -f nfs-client-storageclass.yaml && kubectl apply -f nfs-client-storageclass.yaml
kubectl get pv,pvc

vim pod.yaml
apiVersion: v1
kind: Pod
metadata:labels:run: demo3name: dem3-pod
spec:volumes:- name: scj-volpersistentVolumeClaim:claimName: mypvc003containers:- image: soscscs/myapp:v1name: myappports:- containerPort: 80resources: {}volumeMounts:- name: scj-volmountPath: /mntdnsPolicy: ClusterFirstrestartPolicy: Always
status: {}kubectl apply -f pod.yaml
kubectl exec -it dem3-pod -- sh
cd /mnt
echo '123456' > tan.txt

kubectl delete pod dem3-pod
kubectl delete pvc mypvc003  #删除查看是否备份


3.总结

存储资源有什么?

pv、pvc

创建PV的方式:
静态PV创建:手动根据PV资源对象的配置文件创建PV资源
动态PV创建:根据PVC的配置通过引用StorageClass(简称SC)资源触发存储卷插件动态的创建PV资源

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • haproxy七层代理总结
  • SpringBoot参数校验详解
  • PyTorch 基础学习(6)- 自动微分
  • Android Studio设置 offline 模式
  • 解决 Windows 任务栏图标不更新问题:深入解析与解决方案
  • C++初阶_2:引用
  • docker中调用GPU算力(debain12系统)
  • Spring 事务机制
  • Linux中针对文件权限的解析
  • FairyGUI-egret 优化ui资源加载
  • Linux--C语言之输入输出函数及格式控制输出
  • 如何在Shopify开发中高度还原Figma设计稿
  • 操作系统信号集与信号屏蔽
  • 社交工程攻击:心理操纵的艺术与防范策略
  • Nginx 服务器配置 SSL(HTTPS)的教程
  • 分享的文章《人生如棋》
  • 【剑指offer】让抽象问题具体化
  • 2018以太坊智能合约编程语言solidity的最佳IDEs
  • ES6, React, Redux, Webpack写的一个爬 GitHub 的网页
  • fetch 从初识到应用
  • Hexo+码云+git快速搭建免费的静态Blog
  • Java超时控制的实现
  • Laravel5.4 Queues队列学习
  • mysql中InnoDB引擎中页的概念
  • QQ浏览器x5内核的兼容性问题
  • seaborn 安装成功 + ImportError: DLL load failed: 找不到指定的模块 问题解决
  • SpiderData 2019年2月16日 DApp数据排行榜
  • 道格拉斯-普克 抽稀算法 附javascript实现
  • 构建二叉树进行数值数组的去重及优化
  • 简单基于spring的redis配置(单机和集群模式)
  • 批量截取pdf文件
  • 前端设计模式
  • 嵌入式文件系统
  • 日剧·日综资源集合(建议收藏)
  • 无服务器化是企业 IT 架构的未来吗?
  • ​LeetCode解法汇总518. 零钱兑换 II
  • #DBA杂记1
  • #etcd#安装时出错
  • #如何使用 Qt 5.6 在 Android 上启用 NFC
  • (1)Nginx简介和安装教程
  • (3)Dubbo启动时qos-server can not bind localhost22222错误解决
  • (vue)el-cascader级联选择器按勾选的顺序传值,摆脱层级约束
  • (zt)基于Facebook和Flash平台的应用架构解析
  • (附源码)springboot掌上博客系统 毕业设计063131
  • (附源码)ssm智慧社区管理系统 毕业设计 101635
  • (亲测有效)解决windows11无法使用1500000波特率的问题
  • ****Linux下Mysql的安装和配置
  • ***微信公众号支付+微信H5支付+微信扫码支付+小程序支付+APP微信支付解决方案总结...
  • *_zh_CN.properties 国际化资源文件 struts 防乱码等
  • .netcore 如何获取系统中所有session_ASP.NET Core如何解决分布式Session一致性问题
  • .net开发日常笔记(持续更新)
  • @component注解的分类
  • @JsonSerialize注解的使用
  • [20190416]完善shared latch测试脚本2.txt
  • [2021 蓝帽杯] One Pointer PHP