资讯专栏INFORMATION COLUMN

迈入Docker、Kubernetes容器世界的大门

Moxmi / 2971人阅读

说明

​ 本文通过简单的示例,带领初学者快速迈入DockerKubernetes(K8S)容器世界的大门。假设,你已拥有一个K8S集群,否则,可通过minikubeminishift快速搭建一实验环境。

Docker DockerK8S

Docker本质上是一种虚拟化技术,类似于KVMXENVMWARE,但其更轻量化,且将Docker部署在Linux环境时,其依赖于Linux容器技术(LXC)。Docker较传统KVM等虚拟化技术的一个区别是无内核,即多个Docker虚拟机共享宿主机内核,简而言之,可把Docker看作是无内核的虚拟机,每Docker虚拟机有自己的软件环境,相互独立。

K8SDocker之间的关系,如同Openstack之于KVMVSphere之于VMWAREK8S是容器集群管理系统,底层容器虚拟化可使用Docker技术,应用人员无需与底层Docker节点直接打交道,通过K8S统筹管理即可。

Docker基础

​ 如下所示,运行docker run -it --name test-docker busybox /bin/sh命令,观察其输出,可发现docker先在本地查找名为busybox镜像(Image)1,若本地无镜像,则从docker.io官方镜像库(Registry)下载镜像后保存到本地,接着以此镜像构建一个名为test-docker虚拟机,其Docker官方术语命名为容器(Container)

</>复制代码

  1. # docker run -it --name test-docker busybox /bin/sh
  2. Unable to find image "busybox:latest" locally
  3. Trying to pull repository docker.io/library/busybox ...
  4. latest: Pulling from docker.io/library/busybox
  5. f70adabe43c0: Pull complete
  6. Digest: sha256:186694df7e479d2b8bf075d9e1b1d7a884c6de60470006d572350573bfa6dcd2
  7. / #

Docker较传统KVMVMware虚拟机更轻量,如下所示,test-docker容器不会运行额外的系统与内核进程,其仅运行docker run命令提供的/bin/sh进程:

</>复制代码

  1. / # ps -ef
  2. PID USER TIME COMMAND
  3. 1 root 0:00 /bin/sh
  4. 7 root 0:00 ps -ef

​ 如在Openstack中创建虚拟机,首先需在Glance镜像库中存储虚拟机镜像,而后才能选择镜像以创建虚拟机。Docker同理,且官方提供一共享的镜像仓库(Registry),其中存储了各式各样的镜像(Image)。如本例用busybox镜像创建容器,其镜像被拉(pull)到了本地,可执行如下命令检查发现其仅1MB左右,相当轻量。

</>复制代码

  1. # docker images|grep busybox
  2. docker.io/busybox latest 8ac48589692a 5 weeks ago 1.146 MB

​ 通过本节,我们了解了3个Docker基本要素:镜像仓库(Registry)中存储了镜像(Image),而镜像(Image)包含了程序运行所需的软件环境,当部署容器(Container)时,镜像(Image)通过网络被拉取到Doker主机(Node)

Kubernetes

K8SGoogle开源容器集群管理系统,其源于Google内部管理系统Borg,以下将通过一个个简单连贯的示例,带领初学者熟悉K8S集群。

Pod

K8SPod为最小单位来调度并管理Docker容器(Container),其中1个Pod可含多个容器,且相同Pod里的容器共享本地网络,容器间可通过localhost地址互访,即容器如同部署在相同的主机上,而以Pod为最小单元来调度则表明:Pod内的容器被调度到相同的Docker节点上。

​ 如下所示,创建一名为myhttpPod,其包含一个使用httpd镜像部署的容器,容器名为myhttp

</>复制代码

  1. # cat > /tmp/myhttpd.pod <
  2. ​ 执行kubectl get pod命令观察Pod运行成功后,接着验证容器能提供web服务:

  3. </>复制代码

    1. # kubectl get pod
    2. NAME READY STATUS RESTARTS AGE
    3. myhttp 1/1 Running 0 1h
    4. # kubectl describe pod myhttp|grep IP
    5. IP: 10.129.0.232
    6. # curl 10.129.0.232
    7. It works!

  4. Deployment
  5. ​ 将应用直接以Pod形式部署很少见,主因是:Pod无法提供弹性伸缩,且节点故障时K8S无法将其调度到幸存节点上,缺少自愈能力。鉴于此,应用常使用“镜像(Rc)/部署(Deployment)”部署,且在K8S新版本中,官方推荐用Deployment替代Rc部署无状态(Stateless)应用。

  6. ​ 执行kubectl delete pod myhttp删除pod后,换成以Deployment部署:

  7. </>复制代码

    1. # cat > myhttp.yaml <
    2. Deployment中的.spec.replicas表明部署多少个Pod,如本例当前仅含一Pod

    3. </>复制代码

      1. # kubectl get deploy,pod
      2. NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
      3. deploy/myhttp 1 1 1 1 2m
      4. NAME READY STATUS RESTARTS AGE
      5. po/myhttp-7bc6d8b87c-gzlkq 1/1 Running 0 2m
    4. ​ 执行kubectl delete pod 删除Pod后,可发现deployment将自动重建pod,其将确保拥有.spec.replicaspod数量,即意味着,当pod异常时,deployment具备自愈特性。

    5. </>复制代码

      1. # kubectl delete pod myhttp-7bc6d8b87c-gzlkq
      2. # kubectl get pod -w
      3. NAME READY STATUS RESTARTS AGE
      4. myhttp-7bc6d8b87c-dhmtz 0/1 ContainerCreating 0 2s
      5. myhttp-7bc6d8b87c-dhmtz 1/1 Running 0 8s
      6. myhttp-7bc6d8b87c-gzlkq 1/1 Terminating 0 8m
    6. ​ 当需伸缩或扩展应用时,若以Pod形式部署,则需删除或创建Pod,而若使用Deployment部署,则我们仅需调整.spec.replicas,而后K8S镜像控制器将自动调整Pod数量。如下所示,扩展http应用为2服务:

    7. </>复制代码

      1. # kubectl scale deploy/myhttp --replicas=2
      2. # kubectl get pod -w
      3. NAME READY STATUS RESTARTS AGE
      4. myhttp-7bc6d8b87c-cj4g8 0/1 ContainerCreating 0 3s
      5. myhttp-7bc6d8b87c-zsbcc 1/1 Running 0 8m
      6. myhttp-7bc6d8b87c-cj4g8 1/1 Running 0 18s
      7. # kubectl get deploy
      8. NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
      9. myhttp 2 2 2 2 21m
    8. ​ 执行kubectl delete pod 删除Pod后,可发现Pod名(即容器主机名)及IP是随机分配的,那么,我们该如何访问应用?

    9. </>复制代码

      1. # kubectl get pod
      2. # kubectl describe pod myhttp-7bc6d8b87c-cj4g8|grep IP
      3. IP: 10.129.3.28
    10. Service
    11. Service服务类似于传统的F5A10等硬件负载均衡,但其在K8S中通过软件实现,且当伸缩应用时可实时跟踪后端Server,无需人为调整。

    12. 内部访问

    13. 我们将对上节部署的myhttp应用创建一个Service服务,但在此前,先创建一个Pod作为集群内部客户端以用于后续Service验证。因下面验证Svc将使用curl工具,而官方centos镜像包含此工具,故用此镜像创建Pod,且为保证Pod一直运行不退出,使用了command在前台执行了无限循环命令。

    14. </>复制代码

      1. # kubectl create -f - <
      2. ​ 执行如下命令为myhttp应用创建一个myhttp-int的服务:

      3. </>复制代码

        1. # kubectl expose deployment myhttp --port=8080 --target-port=80 --name=myhttp-int
        2. service "myhttp-int" exposed
      4. ​ 上面命令等价于使用下面的Yaml文件手动创建Service:创建名为myhttp-int的服务,其8080端口指向后端服务的80端口,而后端服务是通过selector选择label(标签)app:myhttpPod,观察myhttp Deployment,可发现.spec.template.metadata.labels定义的标签就是app:myhttp,故而,通过myhttp-int:8080即可访问myhttp服务。

      5. </>复制代码

        1. apiVersion: v1
        2. kind: Service
        3. metadata:
        4. labels:
        5. app: myhttp
        6. name: myhttp-int
        7. spec:
        8. clusterIP:
        9. ports:
        10. - port: 8080
        11. protocol: TCP
        12. targetPort: 80
        13. selector:
        14. app: myhttp
        15. sessionAffinity: None
      6. ​ 在测试容器中通过myhttp-int:8080访问Service,可发现将负载均衡到后端的两pod上:

      7. </>复制代码

        1. # kubectl get pod
        2. NAME READY STATUS RESTARTS AGE
        3. myclient 1/1 Running 0 1h
        4. myhttp-7bc6d8b87c-cj4g8 1/1 Running 0 1d
        5. myhttp-7bc6d8b87c-zsbcc 1/1 Running 0 1d
        6. # 重置web主页,输出每Pod名称以便后续观察
        7. # kubectl exec myhttp-7bc6d8b87c-cj4g8 -it -- sh -c "hostname>htdocs/index.html"
        8. # kubectl exec myhttp-7bc6d8b87c-zsbcc -it -- sh -c "hostname>htdocs/index.html"
        9. # kubectl exec -it myclient -- curl myhttp-int:8080
        10. myhttp-7bc6d8b87c-cj4g8
        11. # kubectl exec -it myclient -- curl myhttp-int:8080
        12. myhttp-7bc6d8b87c-zsbcc
      8. ​ 当伸缩Pod时,我们可通过如下命令观察到Service将动态跟踪后端(Endpoints)服务:

      9. </>复制代码

        1. # kubectl get endpoints myhttp-int
        2. NAME ENDPOINTS AGE
        3. myhttp-int 10.129.0.237:80,10.129.3.28:80 1h
        4. # kubectl scale deploy myhttp --replicas=3
        5. # kubectl get endpoints myhttp-int
        6. NAME ENDPOINTS AGE
        7. myhttp-int 10.129.0.237:80,10.129.3.28:80,10.131.0.194:80 1h
      10. 外部访问

      11. ​ 若应用需向K8S集群外提供服务,则可创建类型为NodePortService,此时K8S集群上所有节点均监听nodePort指定的端口,故外部应用可通过集群中任一节点访问集群内部提供的服务。

      12. </>复制代码

        1. # kubectl create -f - <
        2. ​ 执行如下命令检查服务,发现一个为ClusterIP类型,一个为NodePort类型,但两者均分配了ClusterIP地址:

        3. </>复制代码

          1. # kubectl get svc
          2. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
          3. myhttp-int ClusterIP 172.30.37.43 8080/TCP 1h
          4. myhttp-pub NodePort 172.30.6.69 8080:30001/TCP 3m
        4. myhttp-pub服务通过nodePort打开了集群各节点的主机端口,此时可通过集群任何节点访问服务:

        5. </>复制代码

          1. # curl 192.168.220.21:30001
          2. myhttp-7bc6d8b87c-zsbcc
          3. # curl 192.168.230.21:30001
          4. myhttp-7bc6d8b87c-zsbcc
          5. # curl 192.168.240.21:30001
          6. myhttp-7bc6d8b87c-cj4g8
        6. ​ 通过NodePort类型的Service虽可将服务暴露到集群外部,但问题是:端口数量有限(限制为30000-32767)、节点故障后,通过此节点访问服务将失败。鉴于此原因,NodePort类型的Service不常用,而是换成使用Ingress的技术来暴露服务到集群外部,但为简单考虑,本文不再讲解Ingress

        7. Configmap
        8. ​ 当容器异常时,镜像控制器用Image重建Container,此时对容器的修改会丢失,故而,若需自定义httpd镜像的httpd.conf文件,我们不应直接登录各容器修改配置,而应考虑使用K8S提供的Configmap2技术,其作为中央存储配置库所创建的文件将Pod共享。

        9. ​ 如下所示,为简单考虑,我们随意创建一文件并挂载到Deployment中,修改Configmap,扩展Deployment,用此来讲解Configmap作用。

        10. 创建一名为my-configcm3


        11. </>复制代码

          1. # kubectl create -f - <
          2. 执行kubectl edit deploy myhttp修改Deployment,将cm挂载到/etc/myhosts目录中。完整Yaml文件如下(PS:添加volumeMountsvolume):


          3. </>复制代码

            1. apiVersion: extensions/v1beta1
            2. kind: Deployment
            3. metadata:
            4. labels:
            5. app: myhttp
            6. name: myhttp
            7. spec:
            8. replicas: 1
            9. selector:
            10. matchLabels:
            11. app: myhttp
            12. template:
            13. metadata:
            14. labels:
            15. app: myhttp
            16. spec:
            17. containers:
            18. - image: httpd
            19. name: myhttp
            20. volumeMounts:
            21. - name: config-hosts
            22. mountPath: /etc/myhosts
            23. volumes:
            24. - name: config-hosts
            25. configMap:
            26. name: my-config
          4. ​ 修改Deploy后,可发现Pod将自动重建,而后检查每Pod可发现目录中含有cmhosts文件:

          5. </>复制代码

            1. # kubectl get pod
            2. NAME READY STATUS RESTARTS AGE
            3. myhttp-774ffbb989-gz6bd 1/1 Running 0 11m
            4. myhttp-774ffbb989-k8m4b 1/1 Running 0 11m
            5. myhttp-774ffbb989-t74nk 1/1 Running 0 11m
            6. # kubectl exec -it myhttp-774ffbb989-gz6bd -- ls /etc/myhosts
            7. hosts
            8. # kubectl exec -it myhttp-774ffbb989-gz6bd -- cat /etc/myhosts/hosts
            9. 127.0.0.1 localhost localhost.localdomain
            10. #::1 localhost localhost.localdomain
          6. 修改cm,几分钟后,可发现pod中的配置被自动更新:


          7. </>复制代码

            1. # kubectl edit cm my-config
            2. ...
            3. data:
            4. hosts: |
            5. 127.0.0.1 localhost localhost.localdomain
            6. ::1 localhost localhost.localdomain
            7. ...
            8. # kubectl exec -it myhttp-774ffbb989-gz6bd -- cat /etc/myhosts/hosts
            9. 127.0.0.1 localhost localhost.localdomain
            10. ::1 localhost localhost.localdomain
          8. 扩展应用,继而检查新的Pod,发现其包含cm内容:


          9. </>复制代码

            1. # kubectl scale deploy myhttp --replicas=4
            2. # kubectl get pod
            3. myhttp-774ffbb989-gz6bd 1/1 Running 0 15h
            4. myhttp-774ffbb989-k8m4b 1/1 Running 0 15h
            5. myhttp-774ffbb989-t74nk 1/1 Running 0 15h
            6. myhttp-774ffbb989-z5d6h 1/1 Running 0 21s
            7. # kubectl exec -it myhttp-774ffbb989-z5d6h -- cat /etc/myhosts/hosts
            8. 127.0.0.1 localhost localhost.localdomain
            9. ::1 localhost localhost.localdomain
          10. Secret
          11. ​ 相较于Configmap用于保存明文,那么Secret则保存密文,如用户密码等铭感数据,可使用Secret加密保存。如下所示,我们创建一个Secret加密用户与密码,而后提供给容器使用。

          12. OpaqueSecret数据是一个map类型,要求valuebase64编码格式。加密用户与密码:


          13. </>复制代码

            1. # echo -n root | base64
            2. cm9vdA==
            3. # echo -n Changeme | base64
            4. Q2hhbmdlbWU=
          14. 创建名为userpwd-secretSecret,其包含用户与密码:


          15. </>复制代码

            1. # kubectl create -f - <
            2. 更新deployment,将secretvolume方式挂载到容器中:


            3. </>复制代码

              1. # kubectl edit deployment myhttp
              2. ...
              3. spec:
              4. ...
              5. spec:
              6. containers:
              7. - image: httpd
              8. ...
              9. volumeMounts:
              10. - name: userpwd
              11. mountPath: /etc/mysecret
              12. ...
              13. volumes:
              14. - name: userpwd
              15. secret:
              16. secretName: userpwd-secret
              17. ...
            4. 登录容器可发现secret中的key被保存为文件,其内容为value,但在容器内已被正确解密:


            5. </>复制代码

              1. # kubectl exec -it myhttp-64575c77c-kqdj9 -- ls -l /etc/mysecret
              2. lrwxrwxrwx. 1 root root 15 May 17 07:01 password -> ..data/password
              3. lrwxrwxrwx. 1 root root 15 May 17 07:01 username -> ..data/username
              4. # kubectl exec -it myhttp-64575c77c-kqdj9 -- cat /etc/mysecret/username
              5. root
            6. Storage
            7. ​ 我们将web应用保存到外部存储中,而后挂载到Pod上,这样,无论pod是否重建亦或伸缩,我们发布的应用都不会丢失。

            8. 配置NFS存储
            9. 为简单考虑,本例采用NFS作为共享存储:

            10. nfs服务器安装软件:

            11. </>复制代码

              1. # yum install nfs-utils
            12. 配置共享目录:

            13. </>复制代码

              1. # mkdir -p /exports/httpd
              2. # chmod 0777 /exports/*
              3. # chown nfsnobody:nfsnobody /exports/*
              4. # cat > /etc/exports.d/k8s.exports <
              5. 配置防火墙,放行nfs端口:

              6. </>复制代码

                1. # firewall-cmd --add-port=2049/tcp
                2. # firewall-cmd --permanent --add-port=2049/tcp
              7. 配置Selinux以允许Docker写数据到nfs

              8. </>复制代码

                1. # getsebool -a|grep virt_use_nfs
                2. # setsebool -P virt_use_nfs=true
              9. 启动nfs服务:

              10. </>复制代码

                1. # systemctl restart nfs-config
                2. # systemctl restart nfs-server
                3. # systemctl enable nfs-server
              11. K8S集群使用存储
              12. K8S集群每节点安装nfs客户端软件,并设置Selinux权限:

              13. </>复制代码

                1. # yum install nfs-utils
                2. # setsebool -P virt_use_nfs=true
              14. 创建一类型为nfs的持久化卷:PersistentVolume(PV),其指向nfs后端存储:

              15. </>复制代码

                1. # kubectl create -f - <
                2. 创建一持久化卷声明PersistentVolumeClaim(PVC)指向上一步创建的PV

                3. </>复制代码

                  1. # kubectl create -f - <
                  2. 检查可发现pvc/httpd绑定到pv/httpd

                  3. </>复制代码

                    1. # oc get pv,pvc
                    2. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM ...
                    3. pv/httpd 1Gi RWX Retain Bound demo/httpd ...
                    4. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
                    5. pvc/httpd Bound httpd 1Gi RWX 53s
                  4. 重建deployment,添加volumemount挂载点:

                  5. </>复制代码

                    1. # kubectl delete deploy myhttp
                    2. # kubectl create -f - <
                    3. Pod生成后,检查发现nfs目录被挂载到容器内:

                    4. </>复制代码

                      1. # kubectl get pod
                      2. # kubectl exec -it myhttp-8699b7d498-dlzrm -- df -h
                      3. Filesystem Size Used Avail Use% Mounted on
                      4. ...
                      5. 192.168.240.11:/exports/httpd 37G 17G 21G 44% /usr/local/apache2/htdocs ...
                      6. # kubectl exec -it myhttp-8699b7d498-dlzrm -- ls htdocs # 当前目录为空
                    5. 登录任何一个容器,将web应用发布到htdocs目录:

                    6. </>复制代码

                      1. # kubectl exec -it myhttp-8699b7d498-dlzrm -- /bin/sh
                      2. # echo "this is a test of pv" > htdocs/index.html # 容器内
                    7. 而后,我们删除容器亦或扩展容器,均会发现容器中的htdocs包含所发布的应用:

                    8. </>复制代码

                      1. # kubectl delete pod -l app=myhttp # 删除所有myhttp pod
                      2. # kubectl get pod # 等待pod重建完毕
                      3. # kubectl exec -it myhttp-8699b7d498-6q8tv -- cat htdocs/index.html
                      4. this is a test of pv
                    9. Satefulset
                    10. ​ 如上面用Deplyment创建的myhttp应用,其是无状态(stateless)的,主机名是随机动态分配的,且所有Pod可共享挂载相同的存储(volume),但如KafakaZookeeper集群,其是有状态的,需要主机名确定为一,且各自挂载存储,鉴于此,K8S提供了Satefulset技术来满足此类应用需求。

                    11. ​ 如下所示,我们使用nginx镜像创建一个有状态的集群,用此来讲解Statefulset用法。

                    12. 不同于Deployment,我们必须先创建一个ClusterIP: NoneService服务:

                    13. </>复制代码

                      1. # kubectl create -f - <
                      2. ServiceClusterIP,也即我们无法直接通过此Servcie访问后端服务。

                      3. </>复制代码

                        1. # kubectl get svc
                        2. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
                        3. web ClusterIP None 80/TCP 3s
                      4. 创建名为nginx的有状态服务,镜像数为2,且注意ServiceName配置为上步创建的Svc

                      5. </>复制代码

                        1. # kubectl create -f - <
                        2. 观察pod启动,可发现pod名称为nginx-n格式4,此名称是固定唯一的,且可发现pod是顺序启动的,即容器nginx-nnginx-后启动。

                        3. </>复制代码

                          1. # kubectl get pod -w
                          2. NAME READY STATUS RESTARTS AGE
                          3. nginx-0 0/1 ContainerCreating 0 7s
                          4. nginx-0 1/1 Running 0 10s
                          5. nginx-1 0/1 Pending 0 0s
                          6. nginx-1 0/1 Pending 0 0s
                          7. nginx-1 0/1 ContainerCreating 0 1s
                          8. nginx-1 1/1 Running 0 13s
                        4. 创建的servicestatefulset用在dns上以跟踪pod名称:

                        5. </>复制代码

                          1. # kubectl run -i --tty --image busybox dns-test --restart=Never --rm /bin/sh
                          2. # 如下操作均在刚创建的dns-test pod中进行:
                          3. # nslookup web # 查找web服务,可发现后端有两pod
                          4. ...
                          5. Name: web
                          6. Address 1: 10.129.0.248 nginx-0.web.demo.svc.cluster.local
                          7. Address 2: 10.131.0.200 nginx-1.web.demo.svc.cluster.local
                          8. # nslookup nginx-0.web # 验证pod名称对应的IP地址
                          9. ...
                          10. Name: nginx-0.web.demo.svc.cluster.local
                          11. Address 1: 10.129.0.248 nginx-0.web.demo.svc.cluster.local
                          12. # nslookup nginx-1.web
                          13. ...
                          14. Name: nginx-1.web.demo.svc.cluster.local
                          15. Address 1: 10.131.0.200 nginx-1.web.demo.svc.cluster.local
                        6. 配置satefulset挂载volume

                        7. </>复制代码

                          1. # kubectl delete statefulset nginx # 为简单起见,删除以上创建的statefulset
                          2. # kubectl create -f - <
                          3. 注意:在volumeClaimTemplates.spec中添加的storageClassName,其指定了名为glusterfs-raid0的存储,这样,当pod生成时,k8s会使用动态提供5创建PVCPV并自动从存储池glusterfs-raid0中动态分配volume。当然,若使用Storage一节中配置的nfs存储,则此处需删除storageClassName,而后手动创建存储、pvpvc

                          4. 检查:

                          5. </>复制代码

                            1. # 如下卷是k8s使用动态提供自动从glusterfs创建的:
                            2. # kubectl get pvc
                            3. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
                            4. www-nginx-0 Bound pvc-4a76e4a9... 1Gi RWO glusterfs-raid0 22h
                            5. www-nginx-1 Bound pvc-536e8980... 1Gi RWO glusterfs-raid0 22h
                            6. # kubectl get statefulset,pod
                            7. NAME DESIRED CURRENT AGE
                            8. statefulsets/nginx 2 2 22h
                            9. NAME READY STATUS RESTARTS AGE
                            10. po/nginx-0 1/1 Running 0 22h
                            11. po/nginx-1 1/1 Running 0 22h
                            12. # 两Pod挂载各自的卷:
                            13. # kubectl exec -it nginx-0 -- df -h
                            14. Filesystem Size Used Avail Use% Mounted on
                            15. 192.168.220.21:vol_e6858... 1016M 33M 983M 4% /usr/share/nginx/html
                            16. # kubectl exec -it nginx-1 -- df -h
                            17. Filesystem Size Used Avail Use% Mounted on
                            18. 192.168.220.21:vol_c659cc... 1016M 33M 983M 4% /usr/share/nginx/html
                          6. Namespace
                          7. ​ 细心的读者会在Storage一节中看到demo/httpd,此demo就是作者所使用的Namespace/Project6。如同Openstack云计算平台提供了多租户用途,其每租户可创建自己的Project(项目)K8S同样提供多租户功能,我们可创建不同的Namespace(命名空间),并将以上所示的PodServiceConfigmap等限制在Namespace中。

                          8. ​ 刚搭建的K8S集群,默认有如下两Namespace

                          9. </>复制代码

                            1. # kubectl get namespace
                            2. NAME DISPLAY NAME STATUS
                            3. default Active # 默认命名空间
                            4. kube-system Active # k8s自身使用的命名空间
                          10. ​ 我们可执行如下命令创建命名空间:

                          11. </>复制代码

                            1. # kubectl create namespace demo
                            2. namespace "demo" created
                          12. ​ 而后,执行kubectl命令时可附带”-n “参数。如下所示,查询Pod

                          13. </>复制代码

                            1. # kubectl get pod -n demo
                            2. NAME READY STATUS RESTARTS AGE
                            3. nginx-0 1/1 Running 0 23h
                            4. nginx-1 1/1 Running 0 23h
                          14. ​ 最后,对于Openshift平台,我们可执行如下命令登录到Namespace中,这样,我们就无需每次附带“-n ”了。

                          15. </>复制代码

                            1. # oc project demo
                            2. # oc get pod
                            3. NAME READY STATUS RESTARTS AGE
                            4. nginx-0 1/1 Running 0 23h
                            5. nginx-1 1/1 Running 0 23h
                          16. 结束语
                          17. ​ 通过本文,我们学习了DockerK8S核心知识,我相信读者应完全可以熟练使用K8S平台了。


                          18. 镜像格式为::,若不写image_tag,则默认为latest tag
                          19. 参考官方文档:Configure a Pod to Use a ConfigMap。 ↩
                          20. 内容为key:value格式,且一个cm可包含多个 ↩
                          21. statefulset名称的生成规则是固定的:-n
                          22. 存储必须支持动态提供,如glusterfs存储,要支持动态提供,必须配置heketi; ↩
                          23. Openshift平台,其Project即为K8SNamespace

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/32679.html

相关文章

  • 迈入DockerKubernetes容器世界大门

    说明 ​ 本文通过简单的示例,带领初学者快速迈入Docker、Kubernetes(K8S)容器世界的大门。假设,你已拥有一个K8S集群,否则,可通过minikube或minishift快速搭建一实验环境。 Docker Docker与K8S ​ Docker本质上是一种虚拟化技术,类似于KVM、XEN、VMWARE,但其更轻量化,且将Docker部署在Linux环境时,其依赖于L...

    MASAILA 评论0 收藏0
  • 迈入DockerKubernetes容器世界大门

    说明 ​ 本文通过简单的示例,带领初学者快速迈入Docker、Kubernetes(K8S)容器世界的大门。假设,你已拥有一个K8S集群,否则,可通过minikube或minishift快速搭建一实验环境。 Docker Docker与K8S ​ Docker本质上是一种虚拟化技术,类似于KVM、XEN、VMWARE,但其更轻量化,且将Docker部署在Linux环境时,其依赖于L...

    tracy 评论0 收藏0
  • Docker - 通往新世界大门

    摘要:删除镜像表示强行删除是将镜像保存成文件加载镜像结语是个好东西,以上仅仅是一些常用基本操作,但它就像通往新世界的大门,为大规模集群化部署提供了可能,以后有空再写一下容器编排的文章,敬请关注 showImg(https://segmentfault.com/img/remote/1460000014989024?w=1292&h=710); 引言 相信很多技术同学在开发时都会使用虚拟机,配...

    cncoder 评论0 收藏0
  • PHPer书单

    摘要:想提升自己,还得多看书多看书多看书下面是我收集到的一些程序员应该看得书单及在线教程,自己也没有全部看完。共勉吧当然,如果你有好的书想分享给大家的或者觉得书单不合理,可以去通过进行提交。讲师温铭,软件基金会主席,最佳实践作者。 想提升自己,还得多看书!多看书!多看书!下面是我收集到的一些PHP程序员应该看得书单及在线教程,自己也没有全部看完。共勉吧!当然,如果你有好的书想分享给大家的或者...

    jimhs 评论0 收藏0
  • Kubernetes成为世界500强数字化转型基础原因(以及云基础设施管理平台一览表)

    摘要:最近在举办的上描述,他们缺乏必要的开源社区,网络贡献者,以及一线开发人员和客户,成为深受大家欢迎拥护的基础技术。 大约18个月之前,科技出版物中充斥着容器,以及他们将如何从根本上改变企业IT的新闻。我们在这些说的天花乱坠的新市场中提取信息,汇总到容器的现状博客。基于我们的研究,可以清楚的看到,容器的确造就了市场趋势,而且代表了十年来的一次在企业基础设施方面的转型,这样的转型会重新塑整个...

    godiscoder 评论0 收藏0

发表评论

0条评论

Moxmi

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<