安装docker
在各个节点建立自定义账户,使其可以用命令操作docker
useradd <user_name>
passwd <user_name>
usermod -aG docker <user_name>
su <user_name>
docker info
配置主节点到各个节点用户的免密登录
ssh-keygen
ssh-copy-id <user_name>@<节点IP>
注意,应使用能够操作docker的用户(非root)做免密。在这个例子中使用rancher用户。
下载RKE
RKE下载地址,此处下载更快
wget https://github.com/rancher/rke/releases/download/v1.1.3/rke_linux-amd64
K8S安装
准备Kubernetes集群的节点
Kubernetes集群组件在Linux系统上以docker容器的形式运行,您可以使用熟悉的Linux发行版,只要它可以满足Docker和Kubernetes的运行需要。
创建rke配置文件
有两种简单的方法可以创建cluster.yml:
- 使用我们的最小rke配置cluster.yml并根据将使用的节点更新它;
- 使用rke config向导式生成配置;
运行rke config配置向导
- 选项详解
./rke_linux-amd64 config
[+] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]: 使用~/.ssh/id_rsa
[+] Number of Hosts [1]: 集群主机个数
[+] SSH Address of host (1) [none]: 主机1地址
[+] SSH Port of host (1) [22]: SSH端口
[+] SSH Private Key Path of host (10.180.210.237) [none]: 使用~/.ssh/id_rsa
[+] SSH User of host (10.180.210.237) [ubuntu]: SSH用户名,这里使用rancher
[+] Is host (10.180.210.237) a Control Plane host (y/n)? [y]: 是否运行Control Plane
[+] Is host (10.180.210.237) a Worker host (y/n)? [n]: 是否是worker
[+] Is host (10.180.210.237) an etcd host (y/n)? [n]: 是否运行etcd
[+] Override Hostname of host (10.180.210.237) [none]: 是否重设hostname
[+] Internal IP of host (10.180.210.237) [none]: 主机内部IP
[+] Docker socket path on host (10.180.210.237) [/var/run/docker.sock]: docker sock路径,使用默认
[+] SSH Address of host (2) [none]: 主机2的配置,后续配置相同,不再赘述
......
[+] Network Plugin Type (flannel, calico, weave, canal) [canal]: 网络插件类型
[+] Authentication Strategy [x509]: 认证策略
[+] Authorization Mode (rbac, none) [rbac]: 认证模式
[+] Kubernetes Docker image [rancher/hyperkube:v1.15.5-rancher1]: k8s镜像名
[+] Cluster domain [cluster.local]: 集群域名
[+] Service Cluster IP Range [10.43.0.0/16]: 集群内服务IP的范围
[+] Enable PodSecurityPolicy [n]: pod安全策略
[+] Cluster Network CIDR [10.42.0.0/16]: 集群网络范围
[+] Cluster DNS Service IP [10.43.0.10]: 集群DNS的IP
[+] Add addon manifest URLs or YAML files [no]: 是否增加插件manifest URL或配置文件
- 此次实验设置【仅供参考】
[root@node01 ~]# ./rke_linux-amd64 config
[+] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]:
[+] Number of Hosts [1]: 3
[+] SSH Address of host (1) [none]: 192.168.1.10
[+] SSH Port of host (1) [22]:
[+] SSH Private Key Path of host (192.168.1.10) [none]: ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.10) [ubuntu]: rancher
[+] Is host (192.168.1.10) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.10) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.10) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.10) [none]:
[+] Internal IP of host (192.168.1.10) [none]:
[+] Docker socket path on host (192.168.1.10) [/var/run/docker.sock]:
[+] SSH Address of host (2) [none]: 192.168.1.20
[+] SSH Port of host (2) [22]:
[+] SSH Private Key Path of host (192.168.1.20) [none]: ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.20) [ubuntu]: rancher
[+] Is host (192.168.1.20) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.20) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.20) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.20) [none]:
[+] Internal IP of host (192.168.1.20) [none]:
[+] Docker socket path on host (192.168.1.20) [/var/run/docker.sock]:
[+] SSH Address of host (3) [none]: 192.168.1.30
[+] SSH Port of host (3) [22]:
[+] SSH Private Key Path of host (192.168.1.30) [none]: ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.30) [ubuntu]: rancher
[+] Is host (192.168.1.30) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.30) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.30) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.30) [none]:
[+] Internal IP of host (192.168.1.30) [none]:
[+] Docker socket path on host (192.168.1.30) [/var/run/docker.sock]:
[+] Network Plugin Type (flannel, calico, weave, canal) [canal]: flannel
[+] Authentication Strategy [x509]:
[+] Authorization Mode (rbac, none) [rbac]:
[+] Kubernetes Docker image [rancher/hyperkube:v1.18.3-rancher2]:
[+] Cluster domain [cluster.local]:
[+] Service Cluster IP Range [10.43.0.0/16]:
[+] Enable PodSecurityPolicy [n]:
[+] Cluster Network CIDR [10.42.0.0/16]:
[+] Cluster DNS Service IP [10.43.0.10]:
[+] Add addon manifest URLs or YAML files [no]:
官方示例cluster.yaml
指定名称创建配置文件
rke config --name cluster.yml
创建空的cluster.yml
如果需要空的cluster.yml模板,可以使用该–empty参数生成空模板。
rke config --empty --name cluster.yml
仅打印cluster.yml
您可以使用–print参数将生成的配置打印到stdout,而不是创建文件。
rke config --print
高可用性
RKE支持Kubernetes集群HA方式部署,您可以在cluster.yml文件中指定多个controlplane节点。RKE将在这些节点上部署master组件,并且kubelet配置为默认连接127.0.0.1:6443,这是nginx-proxy代理向所有主节点请求的服务的地址。
证书
从v0.2.0版本起可用
默认情况下,Kubernetes 集群需要用到证书,而 RKE 会自动为所有集群组件生成证书。您也可以使用自定义证书。部署集群后,您可以管理这些自动生成的证书,详情请参考管理自动生成的证书。
RKE部署Kubernetes集群
创建cluster.yml完成后,可以使用简单的命令部署集群。此命令假定该cluster.yml文件与运行该命令的目录位于同一目录中。
./rke_linux-amd64 up
在创建Kubernetes集群时会有日志语句。
[root@node01 ~]# ./rke_linux-amd64 up
INFO[0000] Running RKE version: v1.1.3
INFO[0000] Initiating Kubernetes cluster
INFO[0000] [certificates] GenerateServingCertificate is disabled, checking if there are unused kubelet certificates
INFO[0000] [certificates] Generating admin certificates and kubeconfig
INFO[0000] Successfully Deployed state file at [./cluster.rkestate]
INFO[0000] Building Kubernetes cluster
INFO[0000] [dialer] Setup tunnel for host [192.168.1.30]
INFO[0000] [dialer] Setup tunnel for host [192.168.1.10]
INFO[0000] [dialer] Setup tunnel for host [192.168.1.20]
。。。
INFO[0101] Finished building Kubernetes cluster successfully
当最后一行显示Finished building Kubernetes cluster successfully表示集群已部署完成。作为Kubernetes创建过程的一部分,已创建并编写了一个kubeconfig文件,该文件kube_config_cluster.yml用于与Kubernetes集群进行交互。 如果您使用了不同的cluster.yml文件名,则kube配置文件将以kube_config_<RKE_FILE_NAME>.yml命名
遇到FATA[0337] Failed to get job complete status for job rke-network-plugin-deploy-job in namespace kube-system错误,重新执行一遍./rke_linux-amd64 up即可
保存文件
警告
后期的故障排除和集群升级都需要以下文件
将以下文件的副本保存在安全位置:
cluster.yml:RKE 集群的配置文件。
kube_config_cluster.yml:该集群的Kubeconfig 文件包含了获取该集群所有权限的认证凭据。
cluster.rkestate:Kubernetes 集群状态文件,包含了获取该集群所有权限的认证凭据,使用 RKE v0.2.0 时才会创建这个文件。
Kubernetes集群状态文件
Kubernetes集群状态由Kubernetes集群中的集群配置文件cluster.yml和组件证书组成,由RKE生成,但根据您的RKE版本,集群状态的保存方式不同。
在v0.2.0之前,RKE将Kubernetes集群状态保存为secret。更新状态时,RKE会提取secret,更新/更改状态并保存新secret。
从v0.2.0开始,RKE在集群配置文件cluster.yml的同一目录中创建一个.rkestate文件。该.rkestate文件包含集群的当前状态,包括RKE配置和证书。需要保留此文件以更新集群或通过RKE对集群执行任何操作。
下载kubectl
curl -LO https://storage.proxy.ustclug.org/kubernetes-release/release/$(curl -s https://storage.proxy.ustclug.org/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl
chmod +x ./kubectl
mv ./kubectl /usr/local/bin/kubectl
使用RKE创建Kubernetes集群时,RKE会在本地目录中创建一个包含认证信息的配置文件kube_config_rancher-cluster.yml,以使用kubectl或helm等工具连接到新集群。
您可以将此文件复制到$HOME/.kube/config或者如果您正在使用多个Kubernetes集群,请将KUBECONFIG环境变量设置为路径kube_config_rancher-cluster.yml。
mkdir $HOME/.kube/
cp kube_config_cluster.yml $HOME/.kube/config
测试您的连接,看看是否可以返回节点列表。
kubectl get nodes
关于部署报错
RKE部署报错–docker版本不支持
- 更换版本
docker安装指定版本
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/101867.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...