写点什么

简单的了解一下 K8S,并搭建自己的集群

用户头像
detectiveHLH
关注
发布于: 2020 年 07 月 16 日
简单的了解一下K8S,并搭建自己的集群

这篇博客的本意是带大家从零开始搭建K8S集群的。但是我后面一想,如果是我看了这篇文章,会收获什么?就是跟着步骤一步一走吗?是我的话我会选择拒绝,所以我加了关于K8S的简单介绍,每一步的步骤都添加了解释。由于篇幅和时间原因,我只介绍了K8S中较为核心的Pod和Service。



文章前半段会简单的介绍一下K8S,后半段会介绍如何从零开始慢慢的搭建集群。如果想直接开始着手搭建集群,则可以直接从第三章开始看。



1. K8S是什么

K8S全称kubernetes,是由Google在2014年开源的生产级别的容器编排系统,或者说是微服务和云原生平台。虽说14年才开源,但实际上K8S是Google内部的容器编排系统Borg的开源版本,在Google内部已经用了十多年了。下面是一个关于K8S的Logo来源的小插曲。



Kubernetes由谷歌在2014年首次对外宣布 。它的开发和设计都深受谷歌的Borg系统的影响,它的许多顶级贡献者之前也是Borg系统的开发者。在谷歌内部,Kubernetes的原始代号曾经是Seven,即星际迷航中友好的Borg(博格人)角色。Kubernetes标识中舵轮有七个轮辐就是对该项目代号的致意。



不过也有一个说法是,Docker的Logo是一个驮着集装箱的鲸鱼,也就是运输船,K8S的Logo是一个船舵,旨在引领着Docker(或者说容器技术)走向远方。



2. 简单了解K8S

看了很多官方文章,是真官方。官方什么意思呢,就是有可能看完了约等于没有看,一样的啥都不知道。



所以我想写这样一篇文章,给那些看完文档仍然不太理解或者说完全没了解过K8S的老铁一点小帮助。那么让我们回到最初对K8S的定义,它是一个微服务框架。



说到微服务框架,我们就不得不提一下目前业界十分主流的微服务框架,与这些你十分熟悉的框架进行对比,你就会很清晰的知道K8S能做什么了。目前很主流的微服务框架和平台有Spring Cloud、Dubbo和K8S。



Spring Cloud来自Netflix,Dubbo来自阿里,而K8S则来自Google。说的直观一点,这三个框架都是针对微服务的解决方案。可能有人会说,K8S不是一个容器编排系统吗?怎么跟Spring Cloud这种软件层面上的微服务框架做起了对比呢?



老铁别慌,等我们慢慢深入这个概念。





我们都知道,如果我们需要使用微服务,那么肯定少不了一些底层的基础设施的支撑,例如服务注册与发现、负载均衡、日志监控、配置管理、集群自愈和容错、弹性伸缩...等等。我没有列举完,如其实这些组件都可以统称为微服务的公共关注点。那我们是不是可以说,只要能够提供的这些功能,它就算一个微服务框架呢?



以上的大多数功能,K8S都是内置的。故我们可以说K8S是一个与Docker Swarm相类似的容器编排系统,但是由于K8S内置了微服务的解决方案,它同时也是一个功能完备的微服务框架。

2.1 Pod的概念

在Docker Swarm中,调度的最小单位是容器,而在K8S中,调度的最小是Pod,那啥是Pod呢?



Pod是K8S设计的一个全新的概念,在英文中的原意是表达一群鲸鱼或者是一个豌豆荚的意思。换句话说,一个Pod中可以运行一个或者多个容器。



在一个集群中,K8S会为每个Pod都分配一个集群内唯一的IP地址。因为K8S要求底层网络支持集群内的任意节点之间的两个Pod能够直接通信。这些容器共享当前Pod的文件系统和网络。而这些容器之所以能够共享,是因为Pod中有一个叫Pause的根容器,其余的用户业务容器都是共享这个根容器的IP和Volume。所以这些容器之间都可以通过localhost进行通信。



有人可能会问,为什么要引入根容器这个概念?那是因为如果没有根容器的话,当一个Pod中引入了多个容器的时候,我们应该用哪一个容器的状态来判断Pod的状态呢?所以才要引入与业务无关且不容易挂掉的Pause容器作为根容器,用根容器的状态来代表整个容器的状态



熟悉Spring Cloud或者微服务的都知道,微服务中最忌讳的就是出现单点的情况。

所以针对同一个服务我们一般会部署2个或者更多个实例。在K8S中,则是会部署多个Pod副本,组成一个Pod集群来对外提供服务。



而我们前面提过,K8S会为每一个Pod提供一个唯一的IP地址,客户端就需要通过每个Pod的唯一IP+容器端口来访问到具体的Pod,这样一来,如果客户端把调用地址写死,服务器就没有办法做负载均衡,而且,Pod重启之后IP地址是会变的,难道每次重启都要通知客户端IP变更吗?

为了解决这个问题,就要引出Service的概念了。

2.2 Service

Service是K8S中最核心的资源对象之一,就是用于解决上面提到的问题。我个人认为与Swarm中的Service概念没有太大的区别。



一旦Service被创建,K8S会为其分配一个集群内唯一的IP,叫做ClusterIP,而且在Service的整个生命周期中,ClusterIP不会发生变更,这样一来,就可以用与Docker Swarm类似的操作,建立一个ClusterIP到服务名的DNS域名映射即可。



值得注意的是,ClusterIP是一个虚拟的IP地址,无法被Ping,仅仅只限于在K8S的集群内使用。

而Service对客户端,屏蔽了底层Pod的寻址的过程。并且由kube-proxy进程将对Service的请求转发到具体的Pod上,具体到哪一个,由具体的调度算法决定。这样以来,就实现了负载均衡。

而Service是怎么找到Pod的呢?这就需要继续引入另外一个核心概念Label了。



2.3 Label

Lable本质上是一个键值对,具体的值由用户决定。Lable就是标签,可以打在Pod上,也可以打到Service上。总结来说,Label与被标记的资源是一个一对多的关系。



例如,我们给上面所描述的Pod打上了role=serviceA的标签,那么只需要在Service中的Label Selector中加入刚刚那个标签,这样一来,Service就可以通过Label Selector找到打了同一Label的Pod副本集了。



接下来,再简单的介绍一下其他的K8S核心概念。

2.4 Replica Set

上面提到过部署多个Pod,是怎么一回事呢?K8S最开始有一个概念叫Replication Controller,不过现在已经慢慢的被Replica Set所替代,RS也叫下一代的RC。简单来说Replica Set定义了一种期望的场景,即让任何时候集群内的Pod副本数量都符合预期的值。



一旦被创建,集群就会定期的检测当前存活的Pod数量,如果多了,集群就会停掉一些Pod。相反,如果少了就会创建一些Pod。这样一来可以避免什么问题呢?假设某个服务有两个实例在运行,其中一个意外挂掉了,如果我们设置了副本数量是2,那么集群就会自动创建一个Pod,以保证集群内始终有两个Pod在运行。



K8S的东西就简单的介绍这么多,接下来让我们进入集群的搭建环节。



3. 搭建K8S的准备工作

不知道从哪篇博客开始,不是很愿意写这种纯TODO类的博文,但是我自己躺坑之后发现,我自己这个还真是我目前见过最简单的。

我看到的有些安装分了很多种情况,但是当一个初学者来看的时候,可能反而会让他看懵逼。所以接下来的安装会有些硬核。不分情况,就只有一种情况,一把梭安装就完事。



系统 版本 Ubuntu 18.04

K8S 版本 v1.16.3

Docker 版本 v19.03.5

Flannel 版本 v0.11.0



如果你问我,如果没有机器看了你的文章也能的拥有自己的集群吗?那么请看下图...

3.1 准备工作

我们先假设以下的情况成立。

机器:有2-3台物理机或虚拟机

系统:Ubuntu 18.04 且已换好国内的源

如果以上基本不成立,本篇文章到此结束,谢谢观看...

3.2 安装Docker

我也不需要介绍各种情况了,直接登上机器,创建一个shell脚本,例如叫install_docker.sh,一把梭代码如下。



sudo apt-get update
sudo apt-get install -y apt-transport-https ca-certificates
curl gnupg-agent software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo apt-key fingerprint 0EBFCD88
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
sudo apt-get update
sudo apt-get -y install docker-ce docker-ce-cli containerd.io

然后执行sh install_docker.sh,等待命令跑完,验证docker是否安装好即可。直接敲docker + 回车。

3.3 安装Kubernetes

同理,新建一个shell脚本,例如install_k8s.sh。一把梭代码如下。

sudo curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb https://apt.kubernetes.io/ kubernetes-xenial main
EOF
sudo apt-get install -y kubelet kubeadm kubectl --allow-unauthenticated

然后执行sh install_k8s.sh,等待命令跑完,验证k8s是否安装好即可。直接敲kubectl + 回车。

3.4 关闭Swap

先给出一把梭,不要耽误了正在安装的老铁。为什么要关闭后面再说。

  • 暂时关闭 直接使用命令sudo swapoff -a,但是重启之后会生效。会导致k8s无法正常运行。

  • 永久关闭 建议一劳永逸sudo vim /etc/fstab将有swap.img那行注释掉,保存即可。



那么,swap是啥呢?它是系统的交换分区,你可以理解为虚拟内存。当系统内存不足的时候,会将一部分硬盘空间虚拟成内存使用。那为什么K8S需要将其关掉呢?可以从下图看看访问内存和访问硬盘速度上的差异就知道了。

总的来说是为了性能考虑,所以就需要避免开启swap交换,K8S希望所有的服务都不应该超过集群或节点CPU和内存的限制。



4. 初始化Master节点

到这,准备工作就完成了,可以开始安装K8S的master节点了,登上要作为master节点的机器。

4.1 设置HostName

老规矩,先上命令,再说为什么要设置。

sudo hostnamectl set-hostname master-node

自定义修改了主机名,在之后查看集群内节点时,每个节点的名字就不会显示K8S自动生成的名字,便于查看和记忆。例如,在其他的Node节点你可以将master-node改为slave-node-1worker-node-2,效果如下。

4.2 初始化集群

sudo kubeadm init --pod-network-cidr=10.244.0.0/16

然后,抱起吉他,等待命令执行完。





这里需要特别注意一下。这个命令执行完成之后,会打印一个有kubeadm join的命令,需要保存下来。

大概长这样。

kubeadm join 你的IP地址:6443 --token 你的TOKEN --discovery-token-ca-cert-hash sha256:你的CA证书哈希



顾名思义,这个命令用于其他节点加入到集群中,而且Token是有时效性的,过期时间一般是86400000毫秒





如果失效,就需要重新生成。如果你真的又没有保存,又失效了...我还是给你准备了两个补救措施。如果命令保存下来了,那么请直接跳过这两个补救措施。



token. 通过命令Kubeadm token list找回

ca-cert. 执行命令openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'找回



4.3 普通用户可执行

把下面的指令一把梭即可。

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

主要是,为了不那么麻烦,在控制节点上执行kubectl这类的命令时,不用每次都sudo。

4.4 安装网络通信插件

sudo kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

可以看到,如果不安装Flannel,我们刚刚Init好的Master节点会处于NOT_READY的状态。安装好之后,可以通过命令kubectl get nodes来查看所有的节点的状态。也可以通过kubectl get pods --all-namespaces来查看当前集群中所有Pod的状态。这里需要注意的是,只有在master节点是READY,所有Pod的状态是RUNNING之后,才可以进行下一步。



5. Slave节点加入集群

5.1 设置HostName

sudo hostnamectl set-hostname slave-node

因为当前节点不是master了,所以主机名设置成了slave-node。



5.2 加入集群

重点来了,执行上一章节生成的kubeadm join命令即可。等待执行完毕之后,就可以在master节点上通过命令kubectl get nodes看到slave-node已经加入了集群。



对于Slave节点的操作就没了。





6. 感谢阅读

关于K8S就简单的介绍到这里,由于篇幅和时间的原因,很多概念都没有介绍,例如Deployment、Volume、ConfigMap等等。仅仅只介绍了较为核心的Pod和Service,以及相关的东西。毕竟,如果想要把K8S的核心理念介绍完,一篇博客的篇幅是肯定不够的,后面我再单独详细的介绍吧。



更多内容可以关注公众号【SH的全栈笔记】

发布于: 2020 年 07 月 16 日阅读数: 179
用户头像

detectiveHLH

关注

公众号【SH的全栈笔记】 2018.10.17 加入

还未添加个人简介

评论 (1 条评论)

发布
用户头像
文风(插图)很幽默,完全忘了自己是来看K8S的。
2020 年 09 月 01 日 16:16
回复
没有更多了
简单的了解一下K8S,并搭建自己的集群