摘要:简介是微服务治理方案,提供注册发现存储健康检查以及多数据中心部署的能力。重新设计架构如下实施创建个虚拟机写一个脚本批量创建创建个虚拟机给这个脚本授权,并执行后可以看到虚拟机创建完成。集群中的节点是自动加入网络的。
consul简介
consul是微服务治理方案,提供注册/发现、k/v存储、健康检查以及多数据中心部署的能力。
单节点安装如下:
docker pull consul:0.9.2
启动consul:
docker run -it -p 8500:8500 consul:0.9.2
浏览器访问:localhost:8500,可以看到consul的web UI。
consul可以作为server或client模式运行。
consul server:consul server之间彼此通信并选举一个leader。
consul client:集群中的每个节点都有自己的consul client,它负责监控运行在该节点上的服务的健康、与consul server通信。通常和应用服务运行在一个节点中,一个consul client仅仅和某一个consul server通信。
集群中的所有client和server共享状态信息:即当一个应用服务注册到一个client,这个信息将在所有与它连接的client和server上都共享可用了。
本文着重描述consul集群方式部署,不熟悉docker也没关系,本文也有很多docker概念讲解。
基础准备
docker安装包
docker for linux/mac ,此安装包包含:
docker引擎
docker-machine:虚拟机管理
swarm mode:docker引擎内置的容器编排功能,包括容器集群化和调度。
不要混淆swarm mode和docer swarm。
swarm mode是1.12版提供的能力,集成在docker引擎中,没有和machine、compose集成,内置了k/v存储,并集成了overlay networks支持。
而docker swarm是1.12版之前的集群方案,是独立的工具。在docker1.12之前,创建docker集群是需要用docker swarm的,并且需要额外的k/v存储(consul、etcd等)同步网络配置,保证节点在一个容器中。
docker-compose:服务编排组件
virtualbox
虽然macOS自带HyperKit虚拟解决方案,但因为docker 没有HyperKit driver,所以需要用virtualbox,手动下载安装或者docker早期解决方案Toolbox安装过也可。
架构设计最初的架构设计是这样的:
这种架构也能建成功,但考虑到对swarm集群的理解不要太狭隘,重新设计了另外的架构。
虽然不是所有的服务都适合部署到swarm集群,但是consul是适合的,部署的方式是swarm 的manager节点和consul server重合,swarm的worker节点和consul client重合。
重新设计架构如下:
1、创建4个虚拟机
写一个shell脚本crete_vms.sh批量创建:
#!/bin/sh #创建4个虚拟机 set -e vms=("vm1" "vm2" "vm3" "vm4") for vm in ${vms[@]} do docker-machine create -d virtualbox --virtualbox-memory "1024" --virtualbox-cpu-count "1" --virtualbox-disk-size "2000" ${vm} done docker-machine ls
给这个脚本授权:sudo chmod a+x create_vms.sh,并执行后可以看到虚拟机创建完成。
小提示:
docker-machine 会自动加载一个Boot2Docker ISO用于构建docker容器运行环境。
2、构建swarm集群
2.1 用swarm mode方式将这4台虚拟机构建成一个集群
首先需要在一台机器上初始化swarm,这里在vm1上进行初始化,先绑定vm1环境:
eval $(docker-machine env vm1)
然后初始化:
docker swarm init --advertise-addr $(docker-machine ip vm1)
这时,vm1变成一个集群中的manager节点了。
2.2 接下来将vm2作为一个manager节点加入这个swarm
先查询加入命令:
docker swarm join-token manager
To add a manager to this swarm, run the following command:
docker swarm join --token SWMTKN-1-64eiwxk3wzoau20f7iv56fw0apgsxsk0gnzwb1e6okbezd373b-eyhb3sbu3fkcj8uyzw1bigayj 192.168.99.100:2377
然后绑定vm2环境:
eval $(docker-machine env vm2)
执行加入命令:
docker swarm join --token SWMTKN-1-64eiwxk3wzoau20f7iv56fw0apgsxsk0gnzwb1e6okbezd373b-eyhb3sbu3fkcj8uyzw1bigayj 192.168.99.100:2377
2.3 将vm3和vm4作为worker节点加入这个swarm
先查询加入命令:
docker swarm join-token worker
To add a worker to this swarm, run the following command:
docker swarm join --token SWMTKN-1-64eiwxk3wzoau20f7iv56fw0apgsxsk0gnzwb1e6okbezd373b-8ern27gy685jifwq7b9cjvhcn 192.168.99.100:2377
绑定vm3环境:
eval $(docker-machine env vm3)
执行加入命令:
docker swarm join --token SWMTKN-1-64eiwxk3wzoau20f7iv56fw0apgsxsk0gnzwb1e6okbezd373b-8ern27gy685jifwq7b9cjvhcn 192.168.99.100:2377
绑定vm4环境:
eval $(docker-machine env vm4)
执行加入命令:
docker swarm join --token SWMTKN-1-64eiwxk3wzoau20f7iv56fw0apgsxsk0gnzwb1e6okbezd373b-8ern27gy685jifwq7b9cjvhcn 192.168.99.100:2377
至此,swarm集群创建完成!
切换到manager 节点查看集群信息:
eval $(docker-machine env vm1) docker node ls
MANAGER STATUS显示为Reachable表示该节点是一个manager,空表示是一个worker。
可以在swarm manager节点环境下查看网络信息:
docker network ls
可以看到ingress的网络是属于swarm的,其他的都是本地(local)。swarm集群中的节点是自动加入overlay网络的。
小提示:
docker-machine env vm的作用是查看vm的环境变量,而eval $(docker-machine env vm)是执行,即将当前shell与指定的虚拟机配置环境进行绑定,关掉shell也就释放了这种绑定的环境。这个命令的最好使用场景就是:虚拟机中不需要安装docker compose、machine等、也不需要上传配置文件到虚拟机,就可以在当前shell中执行虚拟机中不存在的命令和文件来操作虚拟机容器和服务。
如果要解绑,执行解绑命令:
eval $(docker-machine env -u)
3、构建consul集群
3.1 先创建一个consul server leader,写个consul-server-init.yml文件:
version: "3.3" services: consul-server: image: consul:0.9.2 environment: - "CONSUL_LOCAL_CONFIG={"disable_update_check": true}" - "CONSUL_CLIENT_INTERFACE=eth0" - "CONSUL_BIND_INTERFACE=eth1" #容器启动时自动绑定eth1端口的IP entrypoint: - consul - agent - -server - -bootstrap #作为一个集群启动 - -data-dir=/consul/data - -advertise={{ GetInterfaceIP "eth1" }} - -client=0.0.0.0 #consul服务侦听地址提供HTTP、DNS、RPC等服务,默认是127.0.0.1,对外提供服务需改成0.0.0.0 - -ui ports: - 8300:8300 #server rpc address - 8301:8301 #CLuster Serf Addr LAN - 8301:8301/udp - 8302:8302 #Cluster Serf Addr WAN - 8302:8302/udp - 8400:8400 #cli rpc endpoint - 8500:8500 #Web UI, http api - 8600:53/udp #DNS服务 network_mode: host #此处指定host模式才能绑定到eth1
切换到vm1 manager节点
eval $(docker-machine env vm1) docker-compose -f consul-server-init.yml up -d
如果启动报错,可以通过docker logs container_id来查看错误信息,然后再docker-compose -f consul-server-init.yml down掉它。
3.2 再写一个consul-server-join.yml用来创建consul server follower加入该集群。
version: "3.3" services: consul-server: image: consul:0.9.2 environment: - "CONSUL_LOCAL_CONFIG={"disable_update_check": true}" - "CONSUL_CLIENT_INTERFACE=eth0" - "CONSUL_BIND_INTERFACE=eth1" #容器启动时自动绑定eth1端口的IP entrypoint: - consul - agent - -server - -data-dir=/consul/data - -retry-join=192.168.99.100 #加入一个集群 - -advertise={{ GetInterfaceIP "eth1" }} - client=0.0.0.0 - -ui ports: - 8300:8300 #server rpc address - 8301:8301 #CLuster Serf Addr LAN - 8301:8301/udp - 8302:8302 #Cluster Serf Addr WAN - 8302:8302/udp - 8400:8400 #cli rpc endpoint - 8500:8500 #Web UI, http api - 8600:53/udp #DNS服务 network_mode: host #此处指定host(宿主机)模式才能绑定到eth1
切换到vm2环境
eval $(docker-machine env vm2) docker-compose -f consul-server-join.yml up -d
3.3 写一个consul-client.yml来创建consul client并加入集群
version: "3.3" #第三版开始支持swarm mode集群的compose-file编排 services: consul-agent: image: consul:0.9.2 environment: - "CONSUL_LOCAL_CONFIG={"disable_update_check": true}" - "CONSUL_CLIENT_INTERFACE=eth0" - "CONSUL_BIND_INTERFACE=eth1" #容器启动时自动绑定eth1端口的IP entrypoint: - consul - agent - -data-dir=/consul/data - -advertise={{GetInterfaceIP "eth1"}} - -retry-join=192.168.99.100 #consul server的地址,以便使该client与 server组成同一个集群 - -retry-join=192.168.99.101 network_mode: host #此处指定host(宿主机)模式才能绑定到eth1
分别切换到vm3和vm4环境执行创建:
eval $(docker-machine env vm3) docker-compose -f consul-client.yml up -d eval $(docker-machine env vm4) docker-compose -f consul-client.yml up -d
到此为止,consul集群创建完成,查看集群信息:
docker exec -t
这里我故意把vm3服务离开了。
小结:
consul不适合用1.13的deploy部署,还是写运维shell方式部署最省事,我上面为了讲清楚很多概念一步一步描述的。
deploy部署的话默认会虚拟出一个集群vip,多个相同服务绑定到这个共同的vip上对外提供服务。
访问http://192.168.99.100:8500,可以看到consul管理界面:
下一篇文章演示Registrator和应用的部署。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/27033.html
摘要:个推针对服务场景,基于和搭建了微服务框架,提高了开发效率。三容器化在微服务落地实践时我们选择了,下面将详细介绍个推基于的实践。 2016年伊始Docker无比兴盛,如今Kubernetes万人瞩目。在这个无比需要创新与速度的时代,由容器、微服务、DevOps构成的云原生席卷整个IT界。个推针对Web服务场景,基于OpenResty和Node.js搭建了微服务框架,提高了开发效率。在微服...
摘要:个推针对服务场景,基于和搭建了微服务框架,提高了开发效率。三容器化在微服务落地实践时我们选择了,下面将详细介绍个推基于的实践。 2016年伊始Docker无比兴盛,如今Kubernetes万人瞩目。在这个无比需要创新与速度的时代,由容器、微服务、DevOps构成的云原生席卷整个IT界。个推针对Web服务场景,基于OpenResty和Node.js搭建了微服务框架,提高了开发效率。在微服...
摘要:微服务架构模式使得每个微服务独立部署,且每个服务独立扩展,开发者不再需要协调其它服务部署对本服务的影响。微服务架构模式使得持续化部署成为可能。所以使用微服务不是必须的,而是在适当的实际,架构适应应用场景的一种改变。 近段时间离职,跟同事们讲解我之前所做的微服务相关产品,对于同事们提出的问题,做了如下整理出来,加上自己的理解,分享出来跟大家一起探讨下: 问题预览 我为什么要换微服务?能...
摘要:其一将用于代理与面向公开的服务之间的通信。数据库上线并开始运行后,我们接下来部署后端。现在,会帮助我们完成全部负载均衡工作。这样所有来自代理的请求都将指向网络,并由后者跨越全部实例执行负载均衡。 七夕大家过得怎么样?今天数人云带大家回归技术和干货。虽然我们能够在Swarm集群当中部署任意数量的服务,但这并不代表各项服务全部可为用户所访问。而新的Swarm网络使得各项服务之间能够更为轻松...
摘要:当然此时的局限性较大,比如没有副本和负载均衡的概念,这导致服务无法高可用当然也更不存在什么服务网络管理和跨节点数据存储这些东西没有服务模型集群中服务间关系和启动顺序编排也很复杂于是就有了下面的的诞生。 showImg(https://segmentfault.com/img/remote/1460000015317037?w=1885&h=1153); 概述 在我的《Docker S...
阅读 6185·2021-11-22 15:32
阅读 814·2021-11-11 16:54
阅读 3158·2021-10-13 09:40
阅读 2165·2021-09-03 10:35
阅读 1826·2021-08-09 13:47
阅读 1867·2019-08-30 15:55
阅读 1935·2019-08-30 15:43
阅读 2456·2019-08-29 17:06