共计 2276 个字符,预计需要花费 6 分钟才能阅读完成。
ClusterIP
clusterIP 主要在每个 node 节点使用 ipvs,将发向 clusterIP 对应端口的数据,转发到 kube-proxy 中。然后 kube-proxy 自己内部实现有负载均衡的方法,并可以查询到这个 service 下对应 pod 的地址和端口,进而把数据转发给对应的 pod 的地址和端口。
为了实现图上的功能,主要需要以下几个组件的协同工作:
-
apiserver 用户通过 kubectl 命令向 apiserver 发送创建 service 的命令,apiserver 接收到请求后将数据存储到 etcd 中。
-
kube-proxy kubernetes 的每个节点中都有一个叫做 kube-porxy 的进程,这个进程负责感知 service,pod 的变化,并将变化的信息写入本地的 iptables 规则中。
-
ipvs 使用 NAT 等技术将 virtualIP 的流量转至 endpoint 中
示例:
vim nginx.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: my-nginx
spec:
selector:
matchLabels:
app: web-nginx
replicas: 3
template:
metadata:
labels:
app: web-nginx
spec:
containers:
- name: web-nginx
image: docker.io/nginx
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
#-----------------------------# 分割线 #--------------------------------------#
vim nginx-svc.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp
spec:
type: ClusterIP
selector:
app: web-nginx
ports:
- name: http
port: 80
targetPort: 80
我们先运行我们的资源清单,然后查看下是否可以正常访问:
为了方便分别当前是哪个 Pod 给我们提供的服务,我们依次将三个 Pod 内 index.html 的文件内容修改为“1”、“2”、“3”,然后从新看一下:
我们在来看一下我们的 Pod 的 IP 地址 与 ipvs 的转发关系:
Headless Service
有时不需要或不想要负载均衡,以及单独的 Service IP。遇到这种情况,可以通过指定 Cluster IP(spec.clusterIP) 的值为“None”来创建 Headless Service。这类 Service 并不会分配 Cluster IP,kube-proxy 不会处理它们,而且平台也不会为它们进行负载均衡和路由
vim headless.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp
spec:
selector:
app: web-nginx
clusterIP: "None"
ports:
- name: http
port: 80
targetPort: 80
dig -t A myapp.default.svc.cluster.local. @10.244.0.3
通过 dig 命令,我们可以看到,即使没有 SVC 的 IP 我们也可以通过域名的方式访问到我们的 Pod
NodePort
nodePort 的原理在于在 node 上开了一个端口,将向该端口的流量导入到 kube-proxy,然后由 kube-proxy 进一步到给对应的 pod
vim nodeport.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp
spec:
type: NodePort
selector:
app: web-nginx
ports:
- name: http
port: 80
targetPort: 80
nodePort: 31000 # 可以通过宿主机的的 31000 端口访问 nginx 服务
# 有效端口范围为 30000-32767
我们来查看一下相关的信息:
验证一下:
LoadBalancer
loadBalancer 和 nodePort 其实是同一种方式。区别在于 loadBalancer 比 nodePort 多了一步,就是可以调用 cloud provider 去创建 LB 来向节点导流
ExternalName
这种类型的 Service 通过返回 CNAME 和它的值,可以将服务映射到 externalName 字段的内容 (例如:www.zutuanxue.com)。ExternalName Service 是 Service 的特例,它没有 selector,也没有定义任何的端口和 Endpoint。相反的,对于运行在集群外部的服务,它通过返回该外部服务的别名这种方式来提供服务。
vim external.yaml
kind: Service
apiVersion: v1
metadata:
name: my-service
spec:
type: ExternalName
externalName: www.zutuanxue.com
我们来查看一下:
当查询主机 my-service.defalut.svc.cluster.local (SVC_NAME.NAMESPACE.svc.cluster.local) 时,集群的 DNS 服务将返回一个值 my.database.example.com 的 CNAME 记录。访问这个服务的工作方式和其他的相同,唯一不同的是重定向发生在 DNS 层,而且不会进行代理或转发。