RKE部署Kubernetes集群

RKE部署Kubernetes集群

安装docker

在各个节点建立自定义账户,使其可以用命令操作docker

useradd <user_name>
passwd <user_name>
usermod -aG docker <user_name>
su <user_name>
docker info

配置主节点到各个节点用户的免密登录

ssh-keygen
ssh-copy-id <user_name>@<节点IP>

注意,应使用能够操作docker的用户(非root)做免密。在这个例子中使用rancher用户。

下载RKE

RKE下载地址,此处下载更快

wget https://github.com/rancher/rke/releases/download/v1.1.3/rke_linux-amd64

K8S安装

准备Kubernetes集群的节点

Kubernetes集群组件在Linux系统上以docker容器的形式运行,您可以使用熟悉的Linux发行版,只要它可以满足Docker和Kubernetes的运行需要。

创建rke配置文件

有两种简单的方法可以创建cluster.yml:

  • 使用我们的最小rke配置cluster.yml并根据将使用的节点更新它;
  • 使用rke config向导式生成配置;

运行rke config配置向导

  • 选项详解
./rke_linux-amd64 config

[+] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]: 使用~/.ssh/id_rsa
[+] Number of Hosts [1]: 集群主机个数
[+] SSH Address of host (1) [none]: 主机1地址
[+] SSH Port of host (1) [22]: SSH端口
[+] SSH Private Key Path of host (10.180.210.237) [none]: 使用~/.ssh/id_rsa
[+] SSH User of host (10.180.210.237) [ubuntu]: SSH用户名,这里使用rancher
[+] Is host (10.180.210.237) a Control Plane host (y/n)? [y]: 是否运行Control Plane
[+] Is host (10.180.210.237) a Worker host (y/n)? [n]: 是否是worker
[+] Is host (10.180.210.237) an etcd host (y/n)? [n]: 是否运行etcd
[+] Override Hostname of host (10.180.210.237) [none]: 是否重设hostname
[+] Internal IP of host (10.180.210.237) [none]: 主机内部IP
[+] Docker socket path on host (10.180.210.237) [/var/run/docker.sock]: docker sock路径,使用默认
[+] SSH Address of host (2) [none]: 主机2的配置,后续配置相同,不再赘述
......
[+] Network Plugin Type (flannel, calico, weave, canal) [canal]: 网络插件类型
[+] Authentication Strategy [x509]: 认证策略
[+] Authorization Mode (rbac, none) [rbac]: 认证模式
[+] Kubernetes Docker image [rancher/hyperkube:v1.15.5-rancher1]: k8s镜像名
[+] Cluster domain [cluster.local]: 集群域名
[+] Service Cluster IP Range [10.43.0.0/16]: 集群内服务IP的范围
[+] Enable PodSecurityPolicy [n]: pod安全策略
[+] Cluster Network CIDR [10.42.0.0/16]: 集群网络范围
[+] Cluster DNS Service IP [10.43.0.10]: 集群DNS的IP
[+] Add addon manifest URLs or YAML files [no]: 是否增加插件manifest URL或配置文件
  • 此次实验设置【仅供参考】
[root@node01 ~]# ./rke_linux-amd64 config
[+] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]: 
[+] Number of Hosts [1]: 3
[+] SSH Address of host (1) [none]: 192.168.1.10
[+] SSH Port of host (1) [22]: 
[+] SSH Private Key Path of host (192.168.1.10) [none]: ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.10) [ubuntu]: rancher
[+] Is host (192.168.1.10) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.10) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.10) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.10) [none]: 
[+] Internal IP of host (192.168.1.10) [none]: 
[+] Docker socket path on host (192.168.1.10) [/var/run/docker.sock]: 
[+] SSH Address of host (2) [none]: 192.168.1.20
[+] SSH Port of host (2) [22]: 
[+] SSH Private Key Path of host (192.168.1.20) [none]:  ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.20) [ubuntu]: rancher
[+] Is host (192.168.1.20) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.20) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.20) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.20) [none]: 
[+] Internal IP of host (192.168.1.20) [none]: 
[+] Docker socket path on host (192.168.1.20) [/var/run/docker.sock]: 
[+] SSH Address of host (3) [none]: 192.168.1.30
[+] SSH Port of host (3) [22]: 
[+] SSH Private Key Path of host (192.168.1.30) [none]:  ~/.ssh/id_rsa
[+] SSH User of host (192.168.1.30) [ubuntu]: rancher
[+] Is host (192.168.1.30) a Control Plane host (y/n)? [y]: y
[+] Is host (192.168.1.30) a Worker host (y/n)? [n]: y
[+] Is host (192.168.1.30) an etcd host (y/n)? [n]: y
[+] Override Hostname of host (192.168.1.30) [none]: 
[+] Internal IP of host (192.168.1.30) [none]: 
[+] Docker socket path on host (192.168.1.30) [/var/run/docker.sock]: 
[+] Network Plugin Type (flannel, calico, weave, canal) [canal]: flannel
[+] Authentication Strategy [x509]: 
[+] Authorization Mode (rbac, none) [rbac]: 
[+] Kubernetes Docker image [rancher/hyperkube:v1.18.3-rancher2]: 
[+] Cluster domain [cluster.local]: 
[+] Service Cluster IP Range [10.43.0.0/16]: 
[+] Enable PodSecurityPolicy [n]: 
[+] Cluster Network CIDR [10.42.0.0/16]: 
[+] Cluster DNS Service IP [10.43.0.10]: 
[+] Add addon manifest URLs or YAML files [no]: 

官方示例cluster.yaml

指定名称创建配置文件

rke config --name cluster.yml

创建空的cluster.yml

如果需要空的cluster.yml模板,可以使用该–empty参数生成空模板。

rke config --empty --name cluster.yml

仅打印cluster.yml

您可以使用–print参数将生成的配置打印到stdout,而不是创建文件。

rke config --print

高可用性

RKE支持Kubernetes集群HA方式部署,您可以在cluster.yml文件中指定多个controlplane节点。RKE将在这些节点上部署master组件,并且kubelet配置为默认连接127.0.0.1:6443,这是nginx-proxy代理向所有主节点请求的服务的地址。

证书

从v0.2.0版本起可用

默认情况下,Kubernetes 集群需要用到证书,而 RKE 会自动为所有集群组件生成证书。您也可以使用自定义证书。部署集群后,您可以管理这些自动生成的证书,详情请参考管理自动生成的证书。

RKE部署Kubernetes集群

创建cluster.yml完成后,可以使用简单的命令部署集群。此命令假定该cluster.yml文件与运行该命令的目录位于同一目录中。

./rke_linux-amd64 up

在创建Kubernetes集群时会有日志语句。

[root@node01 ~]# ./rke_linux-amd64 up
INFO[0000] Running RKE version: v1.1.3                  
INFO[0000] Initiating Kubernetes cluster                
INFO[0000] [certificates] GenerateServingCertificate is disabled, checking if there are unused kubelet certificates 
INFO[0000] [certificates] Generating admin certificates and kubeconfig 
INFO[0000] Successfully Deployed state file at [./cluster.rkestate] 
INFO[0000] Building Kubernetes cluster                  
INFO[0000] [dialer] Setup tunnel for host [192.168.1.30] 
INFO[0000] [dialer] Setup tunnel for host [192.168.1.10] 
INFO[0000] [dialer] Setup tunnel for host [192.168.1.20] 
。。。
INFO[0101] Finished building Kubernetes cluster successfully

当最后一行显示Finished building Kubernetes cluster successfully表示集群已部署完成。作为Kubernetes创建过程的一部分,已创建并编写了一个kubeconfig文件,该文件kube_config_cluster.yml用于与Kubernetes集群进行交互。 如果您使用了不同的cluster.yml文件名,则kube配置文件将以kube_config_<RKE_FILE_NAME>.yml命名

遇到FATA[0337] Failed to get job complete status for job rke-network-plugin-deploy-job in namespace kube-system错误,重新执行一遍./rke_linux-amd64 up即可

保存文件
警告

后期的故障排除和集群升级都需要以下文件

将以下文件的副本保存在安全位置:

cluster.yml:RKE 集群的配置文件。
kube_config_cluster.yml:该集群的Kubeconfig 文件包含了获取该集群所有权限的认证凭据。
cluster.rkestate:Kubernetes 集群状态文件,包含了获取该集群所有权限的认证凭据,使用 RKE v0.2.0 时才会创建这个文件。
Kubernetes集群状态文件
Kubernetes集群状态由Kubernetes集群中的集群配置文件cluster.yml和组件证书组成,由RKE生成,但根据您的RKE版本,集群状态的保存方式不同。

在v0.2.0之前,RKE将Kubernetes集群状态保存为secret。更新状态时,RKE会提取secret,更新/更改状态并保存新secret。
从v0.2.0开始,RKE在集群配置文件cluster.yml的同一目录中创建一个.rkestate文件。该.rkestate文件包含集群的当前状态,包括RKE配置和证书。需要保留此文件以更新集群或通过RKE对集群执行任何操作。

下载kubectl

curl -LO https://storage.proxy.ustclug.org/kubernetes-release/release/$(curl -s https://storage.proxy.ustclug.org/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl
chmod +x ./kubectl
mv ./kubectl /usr/local/bin/kubectl

使用RKE创建Kubernetes集群时,RKE会在本地目录中创建一个包含认证信息的配置文件kube_config_rancher-cluster.yml,以使用kubectl或helm等工具连接到新集群。

您可以将此文件复制到$HOME/.kube/config或者如果您正在使用多个Kubernetes集群,请将KUBECONFIG环境变量设置为路径kube_config_rancher-cluster.yml。

mkdir $HOME/.kube/
cp kube_config_cluster.yml $HOME/.kube/config

测试您的连接,看看是否可以返回节点列表。
kubectl get nodes

关于部署报错

RKE部署报错–docker版本不支持

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/101867.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号