本文使用「署名 4.0 国际 (CC BY 4.0)」许可协议,欢迎转载、或重新修改使用,但需要注明来源。 [署名 4.0 国际 (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/deed.zh) 本文作者: 苏洋 创建时间: 2018年10月03日 统计字数: 16836字 阅读时间: 34分钟阅读 本文链接: https://soulteary.com/2018/10/03/how-to-get-your-k8s-cluster.html ----- # 简单的 Kubernetes 集群搭建 一直以来因为机器资源捉襟见肘,使用 `GitLab CI` 配合 `compose` 完成了多数自动化构建和部署的事情,但是随着运行服务越来越多,管理一大堆 `docker-compose.yml` 和服务的成本也变的越来越高。 作为一个懒人,购置了一台顶配的 `ELite Desk G4 800` 来作为资源,计划搭建 `K8S` 配合 GitLab 的 `Auto DevOps` 作为接下来使用的方案。 网上关于 `K8S` 的搭建使用有很多,但是多数都是基于 `CentOS`、二进制包的教程,太过陈旧和麻烦。 而且在操作过程中,基本都是一路 `Next`,缺少调试验证,本篇以一个 `K8S` 新手视角,介绍如何快速搭建一套开发可用的 mini 集群。 我这里计划创建一个单 Master 双子节点的集群。 ## 官方工具箱 Kubeadm `Kubeadm` 作为官方推出的 `K8S` 工具箱,旨在协助开发者能够快速 `搭建` 和 `使用` Kubernetes 的各种核心功能,包括: - 配置并启动 `master` 节点 - 配置并启动 `worker` 节点,并加入 `master` 节点,组成集群 - 升级集群到最新版本 - 管理你的集群的详细配置 - 管理你的集群 `token` - … 想要了解更多,可以查看[官方文档](https://kubernetes.io/docs/reference/setup-tools/kubeadm/kubeadm/) 。 为了简化操作和维护成本,本次集群的搭建就使用它来进行。不过相比较手动配置的灵活,`kubeadm` 目前存在一些限制,比如它仅支持部分版本的操作系统,参考官方文档:[开始安装 kubeadm 之前](https://kubernetes.io/docs/setup/independent/install-kubeadm/#before-you-begin)。 而且每台主机或者虚拟机至少要分配 `2核心` 和 `2GB` 的内存。 我这里使用的资源是三台 `2核心4GB` 的虚拟机,操作系统为 `ubuntu` ,为了使用 `docker` 官方的软件包,我将系统版本选择为 `16.04`。 我在这里对这三台机器分别进行了命名和固定IP分配: - (Master Node) potato 10.11.12.180 - (Worker Node) potato-chips 10.11.12.181 - (Worker Node) potato-salad 10.11.12.182 ## 配置基础环境 在开始搭建集群之前,我们需要先进行一些基础环境的配置。 ### SSH 认证授信 接下来的操作,包含大量的 ssh 操作,为了避免麻烦,可以将你的用户秘钥添加到远程主机中。 ```bash ssh-copy-id -i ~/.ssh/YOUR_KEY.pub YOUR_HOST_NAME_OR_HOST_IP ``` ### 完全关闭SWAP交换分区 网上的教程一般都只会引导用户使用 `swapoff` 命令进行分区关闭,但是一旦主机重启,这个命令的作用就“失效”了,所以这里建议使用我下面提供的命令一劳永逸的完全关闭 `swap` 分区。 ```bash sudo swapoff -a cat /etc/fstab | grep -v '^#' | grep -v 'swap' | sudo tee /etc/fstab ``` ### 配置主机名称和基础解析 在建设集群之前,我们需要确保节点之间的以下要素不同: - 系统主机名不同 - 硬件 `product_id` - 网卡 `MAC`地址 我们先设置主机名,比如设置主机名为 `potato`: ```bash sudo hostnamectl set-hostname potato ``` 设置完主机名称之后,我们需要将主机名称对应的基础解析指向本地。 ```bash echo "127.0.0.1 `hostname`" | sudo tee -a /etc/hosts ``` 至于 `MAC` 地址,你可以直接使用 `ifconfig` 进行设置,也可以修改 `/etc/network/interfaces` 进行设置。如果你也是虚拟机用户,我建议直接在硬件层面进行设置,一劳永逸,另外,如果你在硬件层面设置了 `MAC` 地址,`product_id` 也会随之变化。 提了这么多次 `product_id` ,那么该如何查看它的内容呢,很简单: ```bash sudo cat /sys/class/dmi/id/product_uuid ``` ### 安装docker 在安装 `K8S` 和各种 `K8S TOOLBOX` 之前,我们需要先对系统进行一些基础配置,在[之前的文章中](https://soulteary.com/2018/08/28/better-use-of-docker-and-traefik.html),我有介绍过如何更优雅的安装 `docker`。 但是这里稍稍有一些不同:这里必须使用指定版本的 `docker-ce` ,目前 18.0x 的 `docker-ce` 暂时未通过 `K8S` 测试验证,不能被直接使用。 之前的安装命令 `apt install docker-ce` 需要被替换为下面的命令来进行指定版本的软件安装: ```bash apt-get update && apt-get install -y docker-ce=$(apt-cache madison docker-ce | grep 17.03 | head -1 | awk '{print $3}') ``` 为了避免软件在后续维护系统的过程中被误升级,我们可以锁定它的版本: ```bash apt-mark docker-ce ``` #### 加速 docker-ce 的下载和安装 如果你觉得从官方下载 `docker-ce` 比较慢,可以在添加了 `gpg` 秘钥后,将添加软件仓库地址从官方源改为其他镜像源,比如使用下面的命令添加一个新的软件源: ```bash add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable" ``` 然后执行前面说到的安装命令,进行更快速的安装。 ### 安装 Kubeadm、Kubectl、Kubelet 这里参考了部分官方文档 [Creating a single master cluster with kubeadm](https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/) ,但是请注意,目前官方已经关闭了 `v1` 版本的 `docker` 仓库的接口,所以如果你准备挂代理直接下载软件镜像包,需要修改 `/etc/docker/daemon.json`,强制停用 `v1` 版本的 API: ```bash { "disable-legacy-registry": true } ``` 由于 `K8S` 搭建之后,升级不是很频繁,可以直接使用导入离线的软件包,进行快速的服务搭建和升级,而对机器上的 `docker` 配置做到使用默认配置不进行改动。 #### 获取镜像并导出为离线镜像包 我们这里使用到的软件包镜像名称列表如下: ```bash k8s.gcr.io/kube-apiserver-amd64:v1.11.3 k8s.gcr.io/kube-controller-manager-amd64:v1.11.3 k8s.gcr.io/kube-scheduler-amd64:v1.11.3 k8s.gcr.io/kube-proxy-amd64:v1.11.3 k8s.gcr.io/pause:3.1 k8s.gcr.io/etcd-amd64:3.2.18 k8s.gcr.io/coredns:1.1.3 k8s.gcr.io/kubernetes-dashboard-amd64:v0.10.0 quay.io/coreos/flannel:v0.10.0-amd64 ``` 将列表保存为文件,在可以获取镜像的云机器上,使用下面的命令可以自动将镜像下载并进行导出。 ```bash PACKAGES=`cat ./images/11.txt`; for package in $PACKAGES; do docker pull "$package"; done docker images | tail -n +2 | grep -v "" | awk '{printf("%s:%s\n", $1, $2)}' | while read IMAGE; do echo "find image: $IMAGE" filename="$(echo $IMAGE| tr ':' '-' | tr '/' '-').tar" echo "save as $filename" docker save ${IMAGE} -o $filename done ``` 然后将下载并导出的 `*.tar` 镜像包下载到要搭建集群的机器上,使用下面的命令即可批量导入镜像到系统,避免了要为集群机器配置代理等操作。 ```bash ls *.tar | xargs -I {} docker load -i {} ``` 上面的脚本,我保存在了 GitHub : [ soulteary/k8s-images-trans-helper ](https://github.com/soulteary/k8s-images-trans-helper/blob/master/fetch-and-backup.sh) 。 #### 加载 IPVS 内核模块 为了避免 `IPVS` 内核模块没有加载,而报 `RequiredIPVSKernelModulesAvailable` 的错误,我们使用下面的命令加载所有支持的 `IPVS` 模块。 ```yaml lsmod | grep ^ip_vs | awk '{print $1}' | xargs -I {} modprobe {} ``` #### 安装 K8S 环境 安装依赖工具、添加 `GPG` 秘钥、添加软件仓库,进行软件下载: ```bash apt-get update && apt-get install -y apt-transport-https curl curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add - cat </etc/apt/sources.list.d/kubernetes.list deb http://apt.kubernetes.io/ kubernetes-xenial main EOF apt-get update apt-get install -y kubelet kubeadm kubectl apt-mark hold kubelet kubeadm kubectl ``` 上面的命令是官方文档提供的,实际上你可能会遇到添加 `GPG` 秘钥出错的情况,并且使用官方源进行下载失败的情况,为此我为你准备了一套适合国内环境使用的命令。 ```bash apt-get update && apt-get install -y apt-transport-https curl cat google-apt-key.gpg | apt-key add - add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-$(lsb_release -cs) main" apt update && apt install -y kubelet kubeadm kubectl ``` 这里的 `GPG` 秘钥可以和离线镜像包一样,使用云主机下载下来,放置于你执行命令的目录,然后使用 `cat` 命令读取内容,再使用 `apt-key` 进行添加操作。 和配置 `docker` 一样,我们需要锁定软件版本,避免“意外”的出现。 ```bash apt-mark hold kubelet kubeadm kubectl ``` 如果你网速够快,1分钟之内,你的 `K8S` 软件包就都就绪了,接下来就能够进行集群的搭建了。 ## 搭建集群 登录服务器,使用 `kubeadm init` 命令进行 `master` 节点的初始化,因为我选择使用 `flannel` 作为组网工具,所以我在初始化命令后面添加了 `CIDR` 参数。 ```bash kubeadm init --apiserver-advertise-address=10.11.12.180 --pod-network-cidr=10.244.0.0/16 ``` ### 启动 Master 节点 这里偷个懒,直接使用 `root` 用户启动程序: ```bash root@potato:~# kubeadm init --apiserver-advertise-address=10.11.12.180 --pod-network-cidr=10.244.0.0/16 [init] using Kubernetes version: v1.11.3 [preflight] running pre-flight checks I0926 04:05:02.988136 1074 kernel_validator.go:81] Validating kernel version I0926 04:05:02.988343 1074 kernel_validator.go:96] Validating kernel config [preflight/images] Pulling images required for setting up a Kubernetes cluster [preflight/images] This might take a minute or two, depending on the speed of your internet connection [preflight/images] You can also perform this action in beforehand using 'kubeadm config images pull' [kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env" [kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml" [preflight] Activating the kubelet service [certificates] Generated ca certificate and key. [certificates] Generated apiserver certificate and key. [certificates] apiserver serving cert is signed for DNS names [potato kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 10.11.12.180] [certificates] Generated apiserver-kubelet-client certificate and key. [certificates] Generated sa key and public key. [certificates] Generated front-proxy-ca certificate and key. [certificates] Generated front-proxy-client certificate and key. [certificates] Generated etcd/ca certificate and key. [certificates] Generated etcd/server certificate and key. [certificates] etcd/server serving cert is signed for DNS names [potato localhost] and IPs [127.0.0.1 ::1] [certificates] Generated etcd/peer certificate and key. [certificates] etcd/peer serving cert is signed for DNS names [potato localhost] and IPs [10.11.12.180 127.0.0.1 ::1] [certificates] Generated etcd/healthcheck-client certificate and key. [certificates] Generated apiserver-etcd-client certificate and key. [certificates] valid certificates and keys now exist in "/etc/kubernetes/pki" [kubeconfig] Wrote KubeConfig file to disk: "/etc/kubernetes/admin.conf" [kubeconfig] Wrote KubeConfig file to disk: "/etc/kubernetes/kubelet.conf" [kubeconfig] Wrote KubeConfig file to disk: "/etc/kubernetes/controller-manager.conf" [kubeconfig] Wrote KubeConfig file to disk: "/etc/kubernetes/scheduler.conf" [controlplane] wrote Static Pod manifest for component kube-apiserver to "/etc/kubernetes/manifests/kube-apiserver.yaml" [controlplane] wrote Static Pod manifest for component kube-controller-manager to "/etc/kubernetes/manifests/kube-controller-manager.yaml" [controlplane] wrote Static Pod manifest for component kube-scheduler to "/etc/kubernetes/manifests/kube-scheduler.yaml" [etcd] Wrote Static Pod manifest for a local etcd instance to "/etc/kubernetes/manifests/etcd.yaml" [init] waiting for the kubelet to boot up the control plane as Static Pods from directory "/etc/kubernetes/manifests" [init] this might take a minute or longer if the control plane images have to be pulled [apiclient] All control plane components are healthy after 38.500989 seconds [uploadconfig] storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace [kubelet] Creating a ConfigMap "kubelet-config-1.11" in namespace kube-system with the configuration for the kubelets in the cluster [markmaster] Marking the node potato as master by adding the label "node-role.kubernetes.io/master=''" [markmaster] Marking the node potato as master by adding the taints [node-role.kubernetes.io/master:NoSchedule] [patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "potato" as an annotation [bootstraptoken] using token: d2y2to.znsihh37rk5calbm [bootstraptoken] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials [bootstraptoken] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token [bootstraptoken] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster [bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace [addons] Applied essential addon: CoreDNS [addons] Applied essential addon: kube-proxy Your Kubernetes master has initialized successfully! To start using your cluster, you need to run the following as a regular user: mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config You should now deploy a pod network to the cluster. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at: https://kubernetes.io/docs/concepts/cluster-administration/addons/ You can now join any number of machines by running the following on each node as root: kubeadm join 10.11.12.180:6443 --token d2y2to.znsihh37rk5calbm --discovery-token-ca-cert-hash sha256:ae980b5c80af45b987b2f3e1d343265f3cce7ef66876cf6a6cabaaa4467868d1 root@potato:~# ``` 这里如果使用 `kubectl get nodes` ,会出现下面的错误,除非你使用上面输出日志中的命令,对于当前用户进行了配置独立的处理。 ```bash root@potato:~# kubectl get nodes The connection to the server localhost:8080 was refused - did you specify the right host or port? ``` 但是作为一个懒人,我这里直接使用默认配置,执行: ```bash export KUBECONFIG=/etc/kubernetes/admin.conf ``` 然后再次执行刚刚获取 `node` 节点的命令: ```bash root@potato:~# kubectl get nodes NAME STATUS ROLES AGE VERSION potato Ready master 1m v1.11.3 ``` 接着,我可以通过 `kubectl get pods` 来看看各个组件是否运行正常: ```bash kubectl get pods --namespace=kube-system ``` ```bash root@potato:~# kubectl get pods --namespace=kube-system NAME READY STATUS RESTARTS AGE coredns-78fcdf6894-2lbvg 0/1 Pending 0 1m coredns-78fcdf6894-vztcw 0/1 Pending 0 1m etcd-potato 1/1 Running 0 26s kube-apiserver-potato 1/1 Running 0 28s kube-controller-manager-potato 1/1 Running 0 14s kube-proxy-qmmwg 1/1 Running 0 1m kube-scheduler-potato 1/1 Running 0 11s ``` 全部都是 `Running`,一切就绪,我们开始进行组网,以及附加集群子节点。 现在 `master` 节点几乎就绪,我们来配置网络组件:`flannel`。 #### Flannel 组网 刚才有提到,我这里使用官方推荐的工具之一: `flannel` 来进行网络组建。 这里需要先设置 `/proc/sys/net/bridge/bridge-nf-call-iptables` 为 `1`,让虚拟网桥上的数据包可以被 `iptable` 处理。 ```bash sysctl net.bridge.bridge-nf-call-iptables=1 ``` 至于配置,使用官方推荐的即可,很简单一条命令: ```bash kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml` ``` 执行完毕,你会看到各种 `created` 的信息。 ```yaml kubectl apply -f kube-flannel.yml clusterrole.rbac.authorization.k8s.io/flannel created clusterrolebinding.rbac.authorization.k8s.io/flannel created serviceaccount/flannel created configmap/kube-flannel-cfg created daemonset.extensions/kube-flannel-ds created ``` 再次查看组件运行状态,我们可以看到,`flannel` 已经运行起来了: ```yaml root@potato:~# kubectl get pods --namespace=kube-system NAME READY STATUS RESTARTS AGE kube-flannel-ds-7gx48 1/1 Running 0 7s ``` 好了,`master` 节点现在就就绪了,接下来我们来操作其他的 `worker` 节点。 ### 添加子节点 下面的操作可以执行无数多遍,我以一台 `worker` 为例。 在刚刚创建 `master` 时,命令行输出告诉我们要执行下面的命令,来组建一个集群: ```yaml kubeadm join 10.11.12.180:6443 --token d2y2to.znsihh37rk5calbm --discovery-token-ca-cert-hash sha256:ae980b5c80af45b987b2f3e1d343265f3cce7ef66876cf6a6cabaaa4467868d1 ``` 如果你的准备工作一项不拉的都执行过了,那么你将会得到下面的输出日志。 ```yaml [preflight] running pre-flight checks I0926 04:23:44.001001 4993 kernel_validator.go:81] Validating kernel version I0926 04:23:44.001206 4993 kernel_validator.go:96] Validating kernel config [discovery] Trying to connect to API Server "10.11.12.180:6443" [discovery] Created cluster-info discovery client, requesting info from "https://10.11.12.180:6443" [discovery] Requesting info from "https://10.11.12.180:6443" again to validate TLS against the pinned public key [discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "10.11.12.180:6443" [discovery] Successfully established connection with API Server "10.11.12.180:6443" [kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace [kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml" [kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env" [preflight] Activating the kubelet service [tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap... [patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "potato-chips" as an annotation This node has joined the cluster: * Certificate signing request was sent to master and a response was received. * The Kubelet was informed of the new secure connection details. Run 'kubectl get nodes' on the master to see this node join the cluster. ``` 嗯,没错,你已经组建了一个最小的集群,一台 `master`、一台 `worker`。 为了让我们的集群更像样子,你可以把上面的命令,在其他的机器上继续执行,来给这个集群添加更多的计算资源。 #### 验证集群节点信息 当你在所有节点执行完毕之后,返回 `master` 节点,还是通过 `kubectl get nodes` 命令,可以查看到当前集群的信息。 ```yaml root@potato:~# kubectl get nodes NAME STATUS ROLES AGE VERSION potato Ready master 10m v1.11.3 potato-chips Ready 1m v1.11.3 potato-salad Ready 1m v1.11.3 ``` 好了,集群搭建就搞定了。 ## 图形化控制台 总是使用命令行太不“环保”了,作为懒人,我们可以使用官方的 `dashboard` 插件来进行一些图形化的交互。 ### 搭建图形控制台 和配置 `flannel` 一样,配置 `dashboard` 也可以使用官方推荐的配置,一条命令完成操作。 ```yaml kubectl apply -f https://github.com/kubernetes/dashboard/blob/master/src/deploy/recommended/kubernetes-dashboard.yaml ``` 同样的,如果你上面的集群是就绪的,那么在执行完命令后,也会得到一堆 `created` 的信息。 ```yaml root@potato:~# kubectl apply -f kubernetes-dashboard.yaml secret/kubernetes-dashboard-certs created serviceaccount/kubernetes-dashboard created role.rbac.authorization.k8s.io/kubernetes-dashboard-minimal created rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard-minimal created deployment.apps/kubernetes-dashboard created service/kubernetes-dashboard created ``` 使用 `kubectl get pods` 查看当前 `pod` 的状况。 ```yaml root@potato:~# kubectl get pods --namespace=kube-system NAME READY STATUS RESTARTS AGE kubernetes-dashboard-767dc7d4d-mw6pv 1/1 Running 0 1m ``` 嗯,一样是就绪状态。 但是由于我们没有安装负载均衡的组件,所以我们暂时无法直接访问 `dashboard` 以及其他的部署的应用,除了系统组件的应用都被分配了 `K8S` 的虚拟内网。 我们可以通过 `-o wide` 参数来查看所有的 `pod` 分布情况: ```yaml root@potato:~# kubectl get pods --namespace=kube-system -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE coredns-78fcdf6894-2lbvg 1/1 Running 1 5m 10.244.0.9 potato coredns-78fcdf6894-vztcw 1/1 Running 1 5m 10.244.0.10 potato etcd-potato 1/1 Running 1 5m 10.11.12.180 potato kube-apiserver-potato 1/1 Running 1 5m 10.11.12.180 potato kube-controller-manager-potato 1/1 Running 1 5m 10.11.12.180 potato kube-flannel-ds-7gx48 1/1 Running 1 5m 10.11.12.180 potato kube-flannel-ds-njjrp 1/1 Running 0 5m 10.11.12.181 potato-chips kube-flannel-ds-v4btm 1/1 Running 0 5m 10.11.12.182 potato-salad kube-proxy-bcvx6 1/1 Running 0 5m 10.11.12.182 potato-salad kube-proxy-qmmwg 1/1 Running 1 5m 10.11.12.180 potato kube-proxy-xc5j9 1/1 Running 0 5m 10.11.12.181 potato-chips kube-scheduler-potato 1/1 Running 1 5m 10.11.12.180 potato kubernetes-dashboard-767dc7d4d-mw6pv 1/1 Running 0 5m 10.244.2.10 potato-salad ``` ### 让控制台允许访问 网上有很多教程是写在本地如何访问 `dashboard` 的,所以他们直接使用 `kubectl proxy` 是有效的,但是如果你是真的搭建一个集群,这时这个命令将会失效,因为它监听的地址是 `127.0.0.1`。 这时,命令需要修改为: ```bash kubectl proxy --address='0.0.0.0' --accept-hosts='^*$' ``` 然后浏览器中访问: ```bash http://10.11.12.180:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/ ``` 即可打开你的 `K8S` 集群控制台。 ![](https://attachment.soulteary.com/2018/10/03/dashboard-auth.png "默认验证界面") 如果你和我一样,对 固定IP 进行了域名解析,可以这样使用: ```bash kubectl proxy --address='0.0.0.0' --accept-hosts='^*.lab.com$' ``` 对应的访问地址也就变成了: ```bash http://potato.lab.com:8001/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy/#!/login ``` 但是这时,你访问这个控制台,会遇到要求输入 `KubeConfig` 或者 `Token` 的要求,如果你是相对正式的环境使用,那么不妨阅读 [权限控制](https://github.com/kubernetes/dashboard/wiki/Access-control) 相关文档。 当然,如果你真的要使用权限控制方案进行控制台登录,当前版本可能会遇到和社区老兄反馈的一样的问题: `kubectl proxy` 对 HTTPS 支持不佳,导致无法登录 `dashboard`:[原文地址](https://github.com/kubernetes/dashboard/issues/3260#issuecomment-421834585)。 我个人没有遇到这个问题,因为我使用 Traefik 配合 `K8S` ,来对外提供域名访问服务,dashboard 我直接使用下面的方案免除了登录权限的认证。 ### 为控制台免除权限认证 作为一个懒人用的开发环境,我这里直接使用官方文档中的 [给控制台账号赋予超级用户权限](https://github.com/kubernetes/dashboard/wiki/Access-control#admin-privileges) ,免于配置一大堆内容。 将下面的内容保存为 `dashboard-admin.yaml`(仅适用于正式发布的版本) ```yaml apiVersion: rbac.authorization.k8s.io/v1beta1 kind: ClusterRoleBinding metadata: name: kubernetes-dashboard labels: k8s-app: kubernetes-dashboard roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: cluster-admin subjects: - kind: ServiceAccount name: kubernetes-dashboard namespace: kube-system ``` 然后和配置 `flannel` 和 `dashboard` 一样,使用 `kubectl apply` 命令执行启动。 ```yaml root@potato:~# kubectl apply -f dashboard-admin.yaml clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created ``` 再次执行刚刚的 `proxy` 命令,刷新你浏览器中的控制台登录页面,点击“跳过”,你便获得了拥有全部权限的控制台。 ![](https://attachment.soulteary.com/2018/10/03/dashboard-preview1.png "默认验证界面") ![](https://attachment.soulteary.com/2018/10/03/dashboard-preview2.png "默认验证界面") ## 最后 基础的搭建部分就是这样,是不是很简单。接下来我会写一篇文章介绍如何集成自建 GitLab ,完成开发、构建、发布等常规 `Pipeline` 。 --EOF