摘要:请谷歌一波,会有遍地的解释。网络抓包实现使用实现网络抓包非常容易。得益于谷歌的包这里我举一个监听网卡的主要代码网卡名这段代码就是监听某个网卡,通过规则过滤点无用网络包,规则语法与一样。网络抓包监控的优缺点优点应用无关性,监控工具通用性强。
微服务是什么?
此话题不是本文重点,如你还不知道。请谷歌一波,会有遍地的解释。引用下图说明下微服务可能呈现的形态:
监控的目的是为了让集群中所有的服务组件,不管是HTTP服务,数据库服务,还是中间件服务。都能够健康稳定得运行,能发现问题,遇到问题能找到原因。
在过去,监控工具侧重于基础设施或单一软件组件以及衡量运营健康。这些工具在实现这一目标方面只取得了一定的成功,但是对于单一的,传统的应用程序和基础设施来说效果不错。微服务的出现暴露了工具中的弱点。
现在,组件托管在位于私有云,公共云或两者的混合体之间的虚拟化机器或容器内。获悉我并不需要关心服务cpu用了多少,内存用了多少?确保这些服务相互通信以提供所需的结果需要从监控的角度重要看几件事情:
微服务集群中是否所有的服务的吞吐率,响应时间都正常?
服务调用线中哪些线负载过大,哪些线负载过小?
服务的错误率,例如HTTP 500错误。
我们想要监控分析应用,从它的服务状态出发是否更直接呢?
已有监控方案目前有些厂商提出了微服务的监控解决方案。
从APM角度监控服务端到端状态。
为每种类型服务开发agent收集应用状态信息。
通过产生统一的应用日志分析监控方案
其他方案
每一种商业或开源方案都有它的优势所在。可以根据你的需求来进行选择。例如你的所有服务都是自己研发,日志标准一致or能够统一处理。所有访问信息都能打出日志,那么我认为日志分析可能是你最适合的方案。但是对于公有云平台,那就不同了。
好雨云帮采用的方案好雨云帮提供了公有云和私有化的部署方式,平台内部署的服务各式各样。各种通信协议,各种日志标准。我们怎么实现对所有服务的应用状态监控?好雨云帮完善的租户网络,环境隔离,因此我们提供用户在自己环境下安装自己的监控组件,我们的基础数据收集是通过网络分析。下文详细讲解:
kubernetes POD共享机制kubernetes中pod内容器共享网络空间,挂在卷等为我们监控pod内主服务容器提供方便。其实按照官方对pod的定义的使用面来说:
* content management systems, file and data loaders, local cache managers, etc. * log and checkpoint backup, compression, rotation, snapshotting, etc. * data change watchers, log tailers, logging and monitoring adapters, event publishers, etc. * proxies, bridges, and adapters * controllers, managers, configurators, and updaters
pod内除了主服务外我们可以部署一些附属服务。之前的文章我谈过使用pod的插件服务收集处理日志。今天我再谈使用pod的网络便利监控主服务应用级指标。
通过共享的网卡抓包分析网络流量反应应用状况我们拿一个http服务为例,我们监控网络流量能拿到几乎所有访问和服务返回信息。例如1分钟内多少request,分别请求哪些path,多长时间服务返回了。返回状态码等等信息。
要获得以上的数据,我们需要获取到网络包,解码网络包然后获得http协议数据。
我们WatchData服务容器与应用容器在同pod中,经过应用容器eth0网卡的流量我们再WatchData容器中eth0网卡获取。通过解码网络包获取http报文头关键信息,每一个Response形成一个消息发送到server端完成分析,存储然后形成连续的实时的监控数据。下图展现个简要的整体架构图:
当然,上文已经说了,我们采取此方案主要就是为了能够监控各种应用,只是http怎么行。不通的通信应用使用不同的通信协议,比如mysql的协议,mongodb的协议。TCP/IP网络协议栈分为应用层(Application)、传输层(Transport)、网络层(Network)和链路层(Link)四层。。我们抓取到的网络包信息也是四层模型。
网络抓包Golang实现使用golang实现网络抓包非常容易。得益于谷歌的包:
github.com/google/gopacket github.com/google/gopacket/layers github.com/google/gopacket/pcap
这里我举一个监听网卡的Demo主要代码
//device 网卡名 if handle, err := pcap.OpenLive(device, int32(n.Option.Snaplen), true, n.Option.TimeOut); err != nil { log.With("error", err.Error()).Errorln("PCAP OpenLive Error.") return 1 } else if err := handle.SetBPFFilter(n.Option.Expr); err != nil { // optional log.With("error", err.Error()).Errorln("PCAP SetBPFFilter Error.", n.Option.Expr) return 1 } else { log.Infoln("Start listen the device ", device) packetSource := gopacket.NewPacketSource(handle, handle.LinkType()) go func(close chan struct{}, h *pcap.Handle) { for { select { case packet := <-packetSource.Packets(): n.handlePacket(packet) // Do something with a packet here. case <-close: log.Infoln("stop listen the device.") h.Close() return } } }(n.Option.Close, handle) }
这段代码就是监听某个网卡,通过n.Option.Expr规则过滤点无用网络包,规则语法与linux tcpdump一样。参考:PCAP-FILTER
接收到网络包一般有多种类型:2层模型的包,和4层模型的包。如果你不关注tcp握手这种类型的包你只需要关注具有四层模型的网络包。
n.handlePacket(packet)处理网络包。
app := packet.ApplicationLayer() if app != nil { //log.With("type", app.LayerType().String()).Infoln("Receive a application layer packet") //log.Infoln(packet.String()) go func() { sd := &SourceData{ Source: app.Payload(), ReceiveDate: packet.Metadata().Timestamp, } tran := packet.TransportLayer() if tran != nil { src, dst := tran.TransportFlow().Endpoints() sd.SourcePoint = &src sd.TargetPoint = &dst if tran.LayerType().Contains(layers.LayerTypeTCP) { tcp := &layers.TCP{} err := tcp.DecodeFromBytes(tran.LayerContents(), gopacket.NilDecodeFeedback) if err != nil { log.With("error", err.Error()).Errorln("Decode bytes to TCP error") } else { sd.TCP = tcp } } } netL := packet.NetworkLayer() if netL != nil { src, dst := packet.NetworkLayer().NetworkFlow().Endpoints() sd.SourceHost = &src sd.TargetHost = &dst } decode := FindDecode(n.Option.Protocol) if decode != nil { decode.Decode(sd) } else { log.Debugf("%s protol can not be supported ", n.Option.Protocol) }
如上代码简单处理四层模型网络包。一般你可以从网络层获取双方ip地址,从传输层获取双方端口以及tcp包的相关信息。从应用层获取应用数据。
具体的怎么优化和实践就留给大家自己尝试吧。
优点:
应用无关性,监控工具通用性强。
数据全面性,你可以获取很多直接和间接反应应用状态的数据。
不侵入代码,一般不影响网络。
高并发下不影响应用。
缺点:
资源消耗,抓包分析包是一个物理资源消耗的过程。
需要自己开发。
总之,就像上文说得一样。如果你的需求只是想监控一个应用。你就别考虑这个方案了。如果你想监控集群中所有应用,你可以尝试。
云盟认证成员:barnett
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/32524.html
摘要:大家好今天我分享的主题与游戏行业相关,为大家介绍的是在腾讯游戏中的应用实践。随着技术的兴起,我们开始调研在游戏容器化方面的应用。也就是说,将不同游戏业务部署到同一台母机,采用绑定核的方式。在母机上架部署时,创建设备和设备并将它们进行关联。 今天小数的推送内容来自腾讯互娱高级工程师黄惠波,让我们一起来看看吧~~~ 黄惠波,腾讯互娱高级工程师目前主要负责游戏计算资源容器化平台的研发工作,包...
摘要:容器云将支持应用的一键式部署交付,提供负载均衡,私有域名绑定,性能监控等应用生命周期管理服务。本容器云平台,对接持续集成发布系统。 前言 在移动互联网时代,新的技术需要新技术支持环境、新的软件交付流程和IT架构,从而实现架构平台化,交付持续化,业务服务化。容器将成为新一代应用的标准交付件,容器云将帮助企业用户构建研发流程和云平台基础设施。缩短应用向云端交付的周期,降低运营门槛。加速向互...
摘要:容器云将支持应用的一键式部署交付,提供负载均衡,私有域名绑定,性能监控等应用生命周期管理服务。本容器云平台,对接持续集成发布系统。 前言 在移动互联网时代,新的技术需要新技术支持环境、新的软件交付流程和IT架构,从而实现架构平台化,交付持续化,业务服务化。容器将成为新一代应用的标准交付件,容器云将帮助企业用户构建研发流程和云平台基础设施。缩短应用向云端交付的周期,降低运营门槛。加速向互...
摘要:阿里云容器服务已经发布了基于容器集群的开源区块链解决方案,利用容器技术可以在分钟之内部署完成一个生产级别安全高可用的区块链应用运行环境,帮助企业可以加速业务创新。对节点,阿里云服务会自动开启相应调度能力。 摘要: 阿里云ECS弹性裸金属服务器(神龙)已经与其容器服务全面兼容,用户可以选择在弹性裸金属服务器上直接运行容器、管控Kubernetes/Docker容器集群,如此将会获得非常出...
摘要:本文中,我们将描述系统的架构开发演进过程,以及背后的驱动原因。应用管理层提供基本的部署和路由,包括自愈能力弹性扩容服务发现负载均衡和流量路由。 带你了解Kubernetes架构的设计意图、Kubernetes系统的架构开发演进过程,以及背后的驱动原因。 showImg(https://segmentfault.com/img/remote/1460000016446636?w=1280...
阅读 3970·2023-04-26 02:13
阅读 2215·2021-11-08 13:13
阅读 2682·2021-10-11 10:59
阅读 1718·2021-09-03 00:23
阅读 1246·2019-08-30 15:53
阅读 2201·2019-08-28 18:22
阅读 3018·2019-08-26 10:45
阅读 690·2019-08-23 17:58