跳转至

coredns

1. 概述

简单来说,服务发现就是服务(应用)之间相互定位的过程。

服务发现并非云计算时代独有,传统的单架构时代也会用到。在以下应用场景下,更需要服务发现

  • 服务(应用)的动态性强

  • 服务(应用)更新发布频繁

  • 服务(应用)支持自动伸缩

在跨k8s集群里,pod的IP是不段变化的,如何“以不变应万变”呢?

  • 在k8s里,抽象出了Service资源,通过标签选择器,关联一组Pod
  • 抽象出了集群网络,通过相对固定的“集群IP”,使服务接入点固定

那么如何自动关联Service资源的“名称”和“集群网络IP”,从而达到服务被集群自动发现的目的呢?

在传统的DNS模型里,我们可以通过hdss7-21.host.com解析道192.168.14.21,实际上,在集群里我们也可以建立类似的模型,让 nginx-ds自动关联到一个虚拟的Service IP。在k8s里,实现服务发现的方式就是通过DNS。以下工具可以实现k8s的dns服务

kube-dns: kubernetes-v1.2至kubernetes-v1.10 coredns: kubernetes-v1.11至今

不过要注意的是,k8s里的dns不是万能的!它只负责自动维护“服务名”和“集群网络IP”之间的关系。在本文,我们将使用coredns实现服务的发现的过程。在下文中,我们将以k8s资源的形式,来搭建coredns服务。

2. 搭建yaml配置文件的http服务

搭建http服务

为了更好的复用yaml配置文件,我们在kb200这台主机上配置一个yaml文件的在线http服务。创建nginx配置文件/etc/nginx/conf.d/k8s-yaml.od.com.conf,并添加以下内容

server {
    listen 80;
    server_name k8s-yaml.od.com

    location / {
        autoindex on;
        default_type text/plain;
        root /data/k8s-yaml;
    }
}

重新加载nginx

nginx -s reload

现在我们回到kb11这台主机上,添加一条解析,修改dns配置文件/var/named/od.com.zone,如下内容

$ORIGIN od.com.
$TTL 600 ; 10 minutes
@ IN SOA dns.od.com. dnsadmin.od.com. (
    2022012005 ; serial
    10800      ; refresh (3 hours)
    900        ; retry (15 minutes)
    604800     ; expire (1 week)
    86400      ; minium (1 day)
    ) 
    NS dns.od.com.

$TTL 60    ;   1 minute
dns    A   192.168.14.11
harbor    A   192.168.14.200
k8s-yaml    A   192.168.14.200

修改的内容为

  • 2022012005 ; serial : 增加序列号
  • k8s-yaml A 192.168.14.200 : 添加A记录,将k8s-yaml解析到192.168.14.200,即解析到运维主机上

重启域名解析服务

systemctl restart named

在使用以下命令检查是否已经正常解析

dig -t A k8s-yaml.od.com @192.168.14.11 +short

如果有返回,则代表已经设置成功。

创建coredns的资源配置清单

回到kb200这台主机,使用以下命令创建coredns配置清单的目录

mkdir -p /data/k8s-yaml/coredns

创建coredns的资源配置清单/data/k8s-yaml/coredns/rbac.yaml

apiVersion: v1
kind: ServiceAccount
metadata:
  name: coredns
  namespace: kube-system
  labels:
      kubernetes.io/cluster-service: "true"
      addonmanager.kubernetes.io/mode: Reconcile
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: Reconcile
  name: system:coredns
rules:
- apiGroups:
  - ""
  resources:
  - endpoints
  - services
  - pods
  - namespaces
  verbs:
  - list
  - watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: EnsureExists
  name: system:coredns
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:coredns
subjects:
- kind: ServiceAccount
  name: coredns
  namespace: kube-system

创建configmap配置清单/data/k8s-yaml/coredns/cm.yaml

apiVersion: v1
kind: ConfigMap
metadata:
  name: coredns
  namespace: kube-system
data:
  Corefile: |
    .:53 {
        errors
        log
        health
        ready
        kubernetes cluster.local 192.168.0.0/16  #service资源cluster地址
        forward . 192.168.14.11   #上级DNS地址
        cache 30
        loop
        reload
        loadbalance
       }

创建depoly控制器清单/data/k8s-yaml/coredns/dp.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/name: "CoreDNS"
spec:
  replicas: 1
  selector:
    matchLabels:
      k8s-app: coredns
  template:
    metadata:
      labels:
        k8s-app: coredns
    spec:
      priorityClassName: system-cluster-critical
      serviceAccountName: coredns
      containers:
      - name: coredns
        image: coredns/coredns:1.6.1
        args:
        - -conf
        - /etc/coredns/Corefile
        volumeMounts:
        - name: config-volume
          mountPath: /etc/coredns
        ports:
        - containerPort: 53
          name: dns
          protocol: UDP
        - containerPort: 53
          name: dns-tcp
          protocol: TCP
        - containerPort: 9153
          name: metrics
          protocol: TCP
        livenessProbe:
          httpGet:
            path: /health
            port: 8080
            scheme: HTTP
          initialDelaySeconds: 60
          timeoutSeconds: 5
          successThreshold: 1
          failureThreshold: 5
      dnsPolicy: Default
      volumes:
        - name: config-volume
          configMap:
            name: coredns
            items:
            - key: Corefile
              path: Corefile

创建service资源清单/data/k8s-yaml/coredns/svc.yaml

apiVersion: v1
kind: Service
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/cluster-service: "true"
    kubernetes.io/name: "CoreDNS"
spec:
  selector:
    k8s-app: coredns
  clusterIP: 192.168.0.2
  ports:
  - name: dns
    port: 53
    protocol: UDP
  - name: dns-tcp
    port: 53
  - name: metrics
    port: 9153
    protocol: TCP

3. 启动coredns服务

我们再回到kb21这台集群节点主机上,使用以下命令将资源挨个创建出来

kubectl create -f http://k8s-yaml.od.com/coredns/rbac.yaml
kubectl create -f http://k8s-yaml.od.com/coredns/cm.yaml
kubectl create -f http://k8s-yaml.od.com/coredns/dp.yaml
kubectl create -f http://k8s-yaml.od.com/coredns/svc.yaml

验证服务

# 查看所有资源
kubectl get all -n kube-system
# 查看kube-system名称空间的资源
kubectl get svc -o wide -n kube-system

验证域名解析

# 验证公网解析
dig -t A www.baidu.com @192.168.0.2 +short
# 验证自建解析
dig -t A harbor.od.com @192.168.0.2 +short

coredns已经能解析外网域名了,在coredns的配置中,我们写了他的上级DNS为192.168.14.11,如果它自己解析不出来域名,会通过递归查询一级级查找。 但要注意的是,coredns我们不是用来做外网解析的,而是用来做service名和serviceIP的解析

4. 验证服务

我们先将集群中自己创建的pod都删除掉,再重新创建一个deployment类型的pod

kubectl create deployment nginx-dp --image=nginx -n kube-public

给pod创建一个service

kubectl expose deployment nginx-dp --port=80 -n kube-public

使用下面的命令查看我们创建的service

kubectl get svc -n kube-public

可以看到如下的返回内容

[root@kb21 vagrant]# kubectl get svc -n kube-public
NAME       TYPE        CLUSTER-IP        EXTERNAL-IP   PORT(S)   AGE
nginx-dp   ClusterIP   192.168.163.187   <none>        80/TCP    29h

我们先使用dig -t A nginx-dp @192.168.0.2 +short命令进行验证,发现无返回数据,其实是需要service的完整域名:服务名.名称空间.svc.cluster.local.,再使用以下命令进行验证,数据就正常了

dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short

可以看到我们没有手动添加任何解析记录,我们nginx-dp的service资源的IP,已经被解析了,这就是coredns帮我们做的

如果我们进入pod里面,使用curl nginx-dp进行测试,发现是通的,原因是我们启动的pod,dns地址是我们前面设置的coredns地址,以及搜索域中已经添加了搜索域:kube-public.svc.cluster.local

这样,我们就解决了集群内部服务相互访问的问题,在后续,我们将介绍如何将我们的内部服务暴露在外网。