大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺
PV和PVC概述
前面我们已经学习了使用NFS提供存储,此时就要求用户会搭建NFS系统,并且会在yaml配置nfs。由于kubernetes支持的存储系统有很多,要求客户全部掌握,显然不现实。为了能够屏蔽底层存储实现的细节,方便用户使用,kubernetes引入了PV和PVC两种资源对象。
- PV(Persistent Volume)是持久化卷的意思,是对底层的共享存储的一种抽象。一般情况下PV由kubernetes管理员进行创建和配置,它和底层具体的共享存储技术有关,并通过插件完成和共享存储的对接。
- PVC(Persistent Volume Claim)是持久化卷声明的意思,是用户对于存储需求的一种声明。换言之,PVC其实就是用户向kubernetes系统发出的一种资源需求申请。
使用了PV和PVC之后,工作可以得到进一步的提升:
存储:存储工程师维护。
- PV:kubernetes管理员维护。(可以理解成对外暴露的一些接口)
- PVC:kubernetes用户维护。(可以理解成用户的一些申请)
PV
PV的资源清单文件
PV是存储资源的抽象,下面是PV的资源清单文件:
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv2
spec:
nfs: # 存储类型,和底层正则的存储对应
path:
server:
capacity: # 存储能力,目前只支持存储空间的设置
storage: 2Gi
accessModes: # 访问模式
-
storageClassName: # 存储类别
persistentVolumeReclaimPolicy: # 回收策略
pv的关键配置参数说明:
-
存储类型:底层实际存储的类型,kubernetes支持多种存储类型,每种存储类型的配置有所不同。
-
存储能力(capacity):目前只支持存储空间的设置(storage=1Gi),不过未来可能会加入IOPS、吞吐量等指标的配置。
-
访问模式(accessModes):
用来描述用户应用对存储资源的访问权限,访问权限包括下面几种方式:- ReadWriteOnce(RWO):读写权限,但是只能被单个节点挂载。
- ReadOnlyMany(ROX):只读权限,可以被多个节点挂载。
- ReadWriteMany(RWX):读写权限,可以被多个节点挂载。
需要注意的是,底层不同的存储类型可能支持的访问模式不同。
回收策略( persistentVolumeReclaimPolicy):
当PV不再被使用之后,对其的处理方式,目前支持三种策略:
- Retain(保留):保留数据,需要管理员手动清理数据。
- Recycle(回收):清除PV中的数据,效果相当于rm -rf /volume/*。
- Delete(删除):和PV相连的后端存储完成volume的删除操作,常见于云服务器厂商的存储服务。
需要注意的是,底层不同的存储类型可能支持的回收策略不同。
存储类别(storageClassName):PV可以通过storageClassName参数指定一个存储类别。
- 具有特定类型的PV只能和请求了该类别的PVC进行绑定。
- 未设定类别的PV只能和不请求任何类别的PVC进行绑定。
状态(status):一个PV的生命周期,可能会处于4种不同的阶段。
- Available(可用):表示可用状态,还未被任何PVC绑定。
- Bound(已绑定):表示PV已经被PVC绑定。
- Released(已释放):表示PVC被删除,但是资源还没有被集群重新释放。
- Failed(失败):表示该PV的自动回收失败。
准备工作(准备NFS环境)
# 创建目录:
mkdir -pv /root/data/{
pv1,pv2,pv3}
# 授权:
chmod 777 -R /root/data
# 修改/etc/exports文件:
vim /etc/exports
/root/data/pv1 192.168.18.0/24(rw,no_root_squash)
/root/data/pv2 192.168.18.0/24(rw,no_root_squash)
/root/data/pv3 192.168.18.0/24(rw,no_root_squash)
# 重启nfs服务:
systemctl restart nfs
创建PV
• 创建pv.yaml文件,内容如下:
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv1
spec:
nfs: # 存储类型吗,和底层正则的存储对应
path: /root/data/pv1
server: 192.168.18.100
capacity: # 存储能力,目前只支持存储空间的设置
storage: 1Gi
accessModes: # 访问模式
- ReadWriteMany
persistentVolumeReclaimPolicy: Retain # 回收策略
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv2
spec:
nfs: # 存储类型吗,和底层正则的存储对应
path: /root/data/pv2
server: 192.168.18.100
capacity: # 存储能力,目前只支持存储空间的设置
storage: 2Gi
accessModes: # 访问模式
- ReadWriteMany
persistentVolumeReclaimPolicy: Retain # 回收策略
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv3
spec:
nfs: # 存储类型吗,和底层正则的存储对应
path: /root/data/pv3
server: 192.168.18.100
capacity: # 存储能力,目前只支持存储空间的设置
storage: 3Gi
accessModes: # 访问模式
- ReadWriteMany
persistentVolumeReclaimPolicy: Retain # 回收策略
# 创建PV:
kubectl create -f pv.yaml
# 查看PV:
kubectl get pv -o wide
PV资源是属于集群的 跨namespace的 所以没有namespace 属性 而PVC不是
PVC
PVC的资源清单文件
• PVC是资源的申请,用来声明对存储空间、访问模式、存储类别需求信息,下面是PVC的资源清单文件:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc
namespace: dev
spec:
accessModes: # 访客模式
-
selector: # 采用标签对PV选择
storageClassName: # 存储类别
resources: # 请求空间
requests:
storage: 5Gi
PVC的关键配置参数说明:
- 访客模式(accessModes):用于描述用户应用对存储资源的访问权限。
- 用于描述用户应用对存储资源的访问权限:
- 选择条件(selector):通过Label Selector的设置,可使PVC对于系统中已存在的PV进行筛选。
- 存储类别(storageClassName):PVC在定义时可以设定需要的后端存储的类别,只有设置了该class的pv才能被系统选出。
- 资源请求(resources):描述对存储资源的请求。
创建PVC
创建pvc.yaml文件,内容如下:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc1
namespace: dev
spec:
accessModes: # 访客模式
- ReadWriteMany
resources: # 请求空间
requests:
storage: 1Gi
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc2
namespace: dev
spec:
accessModes: # 访客模式
- ReadWriteMany
resources: # 请求空间
requests:
storage: 1Gi
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc3
namespace: dev
spec:
accessModes: # 访客模式
- ReadWriteMany
resources: # 请求空间
requests:
storage: 5Gi
# 创建PVC:
kubectl create -f pvc.yaml
# 查看PVC
# 查看PVC:
kubectl get pvc -n dev -o wide
# 查看PV:
kubectl get pv -o wide
创建Pod使用PVC
• 创建pvc-pod.yaml文件,内容如下:
apiVersion: v1
kind: Pod
metadata:
name: pod1
namespace: dev
spec:
containers:
- name: busybox
image: busybox:1.30
command: ["/bin/sh","-c","while true;do echo pod1 >> /root/out.txt; sleep 10; done;"]
volumeMounts:
- name: volume
mountPath: /root/
volumes:
- name: volume
persistentVolumeClaim:
claimName: pvc1
readOnly: false
---
apiVersion: v1
kind: Pod
metadata:
name: pod2
namespace: dev
spec:
containers:
- name: busybox
image: busybox:1.30
command: ["/bin/sh","-c","while true;do echo pod1 >> /root/out.txt; sleep 10; done;"]
volumeMounts:
- name: volume
mountPath: /root/
volumes:
- name: volume
persistentVolumeClaim:
claimName: pvc2
readOnly: false
# 创建Pod:
kubectl create -f pvc-pod.yaml
# 创建Pod使用PVC后查看Pod
# 查看Pod:
kubectl get pod -n dev -o wide
# 创建Pod使用PVC后查看PVC
# 查看PVC:
kubectl get pvc -n dev -o wide
# 创建Pod使用PVC后查看PV
# 查看PV:
kubectl get pv -n dev -o wide
# 查看nfs中的文件存储
# 查看nfs中的文件存储:
ls /root/data/pv1/out.txt
ls /root/data/pv2/out.txt
注意
无论是Pod还是PVC 都看不到对底层相关的配置 所以可以把PV看成是一个接口 用户申请卷 只需要发送相关的请求即可 不需要配置底层卷
生命周期
-
PVC和PV是一一对应的,PV和PVC之间的相互作用遵循如下的生命周期。
-
资源供应:管理员手动创建底层存储和PV。
-
资源绑定:
用户创建PVC,kubernetes负责根据PVC声明去寻找PV,并绑定在用户定义好PVC之后,系统将根据PVC对存储资源的请求在以存在的PV中选择一个满足条件的。- 一旦找到,就将该PV和用户定义的PVC进行绑定,用户的应用就可以使用这个PVC了。
- 如果找不到,PVC就会无限期的处于Pending状态,直到系统管理员创建一个符合其要求的PV。
PV一旦绑定到某个PVC上,就会被这个PVC独占,不能再和其他的PVC进行绑定了。
-
资源使用:用户可以在Pod中像volume一样使用PVC,Pod使用Volume的定义,将PVC挂载到容器内的某个路径进行使用。
-
资源释放:
- 用户删除PVC来释放PV。
- 当存储资源使用完毕后,用户可以删除PVC,和该PVC绑定的PV将会标记为“已释放”,但是还不能立刻和其他的PVC进行绑定。通过之前PVC写入的数据可能还留在存储设备上,只有在清除之后该PV才能再次使用。
-
资源回收:
- kubernetes根据PV设置的回收策略进行资源的回收。
- 对于PV,管理员可以设定回收策略,用于设置与之绑定的PVC释放资源之后如何处理遗留数据的问题。只有PV的存储空间完成回收,才能供新的PVC绑定和使用。
创建PVC后一直绑定不了PV的原因
- PVC的空间申请大小比PV的空间要大。
- PVC的storageClassName和PV的storageClassName不一致。
- PVC的accessModes和PV的accessModes不一致。
配置存储
ConfigMap
概述
ConfigMap是一个比较特殊的存储卷,它的主要作用是用来存储配置信息的。
ConfigMap的资源清单文件
apiVersion: v1
kind: ConfigMap
metadata:
name: configMap
namespace: dev
data: # <map[string]string>
xxx
创建ConfigMap
创建configmap.yaml文件,内容如下:
apiVersion: v1
kind: ConfigMap
metadata:
name: configmap
namespace: dev
data:
info:
username:admin
password:123456
# 创建ConfigMap:
kubectl create -f configmap.yaml
创建Pod
创建pod-configmap.yaml文件,内容如下:
apiVersion: v1
kind: Pod
metadata:
name: pod-configmap
namespace: dev
spec:
containers:
- name: nginx
image: nginx:1.17.1
volumeMounts:
- mountPath: /configmap/config
name: config
volumes:
- name: config
configMap:
name: configmap
# 创建Pod:
kubectl create -f pod-configmap.yaml
# 查看Pod:
kubectl get pod pod-configmap -n dev
# 进入容器,查看配置:
kubectl exec -it pod-configmap -n dev /bin/sh
cd /configmap/config
ls
more info
ConfigMap中的key映射为一个文件,value映射为文件中的内容。如果更新了ConfigMap中的内容,容器中的值也会动态更新。
Secret
概述
\在kubernetes中,还存在一种和ConfigMap非常类似的对象,称为Secret对象,它主要用来存储敏感信息,例如密码、密钥、证书等等。
准备数据
使用base64对数据进行编码:
# 准备username
echo -n "admin" | base64
echo -n "123456" | base64
创建Secret
• 创建secret.yaml文件,内容如下:
apiVersion: v1
kind: Secret
metadata:
name: secret
namespace: dev
type: Opaque
data:
username: YWRtaW4=
password: MTIzNDU2
# 创建Secret:
kubectl create -f secret.yaml
# 上面的方式是先手动将数据进行编码,其实也可以使用直接编写数据,将数据编码交给kubernetes。
apiVersion: v1
kind: Secret
metadata:
name: secret
namespace: dev
type: Opaque
stringData:
username: admin
password: 123456
如果同时使用data和stringData,那么data会被忽略。
# 查看Secret详情:
kubectl describe secret secret -n dev
创建Pod
创建pod-secret.yaml文件,内容如下:
apiVersion: v1
kind: Pod
metadata:
name: pod-secret
namespace: dev
spec:
containers:
- name: nginx
image: nginx:1.17.1
volumeMounts:
- mountPath: /secret/config
name: config
volumes:
- name: config
secret:
secretName: secret
• 创建Pod:
kubectl create -f pod-secret.yaml
# 查看Pod:
kubectl get pod pod-secret -n dev
# 进入容器
# 进入容器,查看secret信息,发现已经自动解码了:
kubectl exec -it pod-secret -n dev /bin/sh
ls /secret/config
more /secret/config/username
more /secret/config/password
Secret的用途
imagePullSecret:Pod拉取私有镜像仓库的时使用的账户密码,会传递给kubelet,然后kubelet就可以拉取有密码的仓库里面的镜像。
创建一个ImagePullSecret:
kubectl create secret docker-registry docker-harbor-registrykey --docker-server=192.168.18.119:85 \
--docker-username=admin --docker-password=Harbor12345 \
--docker-email=1900919313@qq.com
# 查看是否创建成功:
kubectl get secret docker-harbor-registrykey
• 新建redis.yaml文件,内容如下:
apiVersion: v1
kind: Pod
metadata:
name: redis
spec:
containers:
- name: redis
image: 192.168.18.119:85/yuncloud/redis # 这是Harbor的镜像私有仓库地址
imagePullSecrets:
- name: docker-harbor-registrykey
# 创建Pod:
kubectl apply -f redis.yaml
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/168522.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...