摘要:中间件的分类基于远程过程调用的中间件。基于对象请求代理的中间件。消息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。
一.中间件
1.1 什么是中间件?
由于业务、机构和技术是不断变化的,因此为其服务的软件系统必须适应这样的变化。在合并、添加服务或扩展可用服务之后,公司可能无力负担重新创建信息系统所需的成本。正是在这个关键时刻,才需要集成新组件或者尽可能高效地扩展现有组件。要集成异类组件,最方便的方法不是将它们重新创建为同类元素,而是提供一个允许它们进行通信(不考虑它们之间的差异)的层。该层被称作中间件。
1.2 中间件的分类
基于远程过程调用 (Remote Procedure Call, RPC)的中间件。
基于对象请求代理 (Object Request Broker, ORB) 的中间件。
面向消息的中间件或基于 MOM 的中间件。
二.面向消息的中间件 (Message-Oriented Middleware, MOM) 2.1 消息中间件介绍消息队列中间件是分布式系统中重要的组件,主要解决应用耦合、异步消息、流量削锋等问题。实现高性能、高可用、可伸缩和最终一致性架构。是大型分布式系统不可缺少的中间件。2.2 消息中间件的结构 三.JMS(Java Message Service)
3.1 什么是jms?
JMS即Java消息服务(Java Message Service)应用程序接口,是一个Java平台中关于面向消息中间件(MOM)的API,用于在两个应用程序之间,或分布式系统中发送消息,进行异步通信。Java消息服务是一个与具体平台无关的API,绝大多数MOM提供商都对JMS提供支持。
3.2 JMS 消息传送模式
客户端 A、C 和 D之间的消息传送说明了点对点模式(P2P)。客户端使用此模式向队列目的地发送一条消息,只有一个接收者能够从该目的地获得该消息。访问该目的地的其他任何接收者都不能获得该消息。
客户端 B、E 和 F之间的消息传送说明了发布/订阅模式(publish-subscribe)。客户端使用此广播模式向主题目的地发送一条消息,任意数量的使用方订户都可以从该目的地检索此消息。每个订户都获得此消息的一个副本。
3.3 JMS 消息传送对象
JMS 消息传送的对象在编程域中基本保持不变:连接工厂、连接、会话、生成方、使用方、消息和目的地。四、MQ (Message Queue)
MQ全称为Message Queue,消息队列(MQ)是正确而又完整的 JMS 实现,消息队列(MQ)是一种应用程序对应用程序的通信方法。应用程序通过写和检索出入列队的针对应用程序的数据(消息)来通信,而无需专用连接来链接它们。消息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。4.1 应用场景 1. 异步处理
场景说明:新用户注册发放100积分,180元新手大礼包,激活会员卡,传统的做法有两种:串行方式,并行方式。
串行方式
使用消息队列
以上两种方式,很容易发现同步处理的情况下都会涉及到非主业务的其他操作,其实注册的的主流程不应该受其他事件影响,通过消息队列的方式,可以把后续的处理流程进行异步处理可以大大提高响应速度。2. 应用解耦
场景说明:企业中经常出现企业合作如:本公司的驴粉卡与电信合作,新开卡的用户从电信端推送到我方,除了相对应的福利外,首先判断是否注册本公司账户, 没有给予注册,但是新用户的相对应权益需要对等的发放。
传统方式
缺点:
1.与其他系统过度耦合
2.短信发放或优惠券发放失败,影响主业务
使用消息队列
优点:
1.注册完成然后将消息写入队列返回成功。
2.发放权益业务不影响主业务,实现解耦。
场景说明:秒杀活动对稀缺或者特价的商品进行定时定量售卖,吸引成大量的消费者进行抢购,但又只有少部分消费者可以下单成功。 因此,秒杀活动将在较短时间内产生比平时大数十倍,上百倍的页面访问流量和下单请求流量。
秒杀前:用户不断刷新商品详情页,页面请求达到瞬时峰值。
秒杀开始:用户点击秒杀按钮,下单请求达到瞬时峰值。
秒杀后:一部分成功下单的用户不断刷新订单或者产生退单操作,大部分用户继续刷新商品详情页等待退单机会。
秒杀前,用户不断刷新商品详情页,造成大量的页面请求。所以,我们需要把秒杀商品详情页与普通的商品详情页分开。对于秒杀商品详情页尽量将能静态化的元素静态化处理,除了秒杀按钮需要服务端进行动态判断,其他的静态数据可以缓存在浏览器和CDN 上。这样,秒杀前刷新页面导致的流量进入服务端的流量只有很小的一部分。
利用读写分离 Redis 缓存拦截流量(活动未开始时拦截大部分动态数据请求)
成功参与下单后,进入下层服务,开始进行订单信息校验,库存扣量。为了避免直接访问数据库,我们使用主从版 Redis 来进行库存扣量
如果还有大量并发的请求则利用消息队列组件,当秒杀服务将订单信息写入消息队列后,即可认为下单完成,避免直接操作数据库。
五.JMS实现--ActiveMQActiveMQ是Apache软件基金下的一个开源软件,它遵循JMS1.1规范(Java Message Service),是消息驱动中间件软件(MOM)。它为企业消息传递提供高可用,出色性能,可扩展,稳定和安全保障。5.1 中间件、JMS、MQ、ActiveMQ之间的关系 5.2 ActiveMQ的消息传递模式
P2P (点对点)消息域使用 queue 作为 Destination,消息可以被同步或异步的发送和接收,每个消息只会给一个 Consumer 传送一次。5.3 ActiveMQ简单案例
Pub/Sub(发布/订阅,Publish/Subscribe)消息域使用 topic 作为 Destination,发布者向 topic 发送消息,订阅者注册接收来自 topic 的消息。发送到 topic 的任何消息都将自动传递给所有订阅者。接收方式(同步和异步)与 P2P 域相同。
消息生产者
//创建session会话 ConnectionFactory factory = new ActiveMQConnectionFactory("tcp://192.168.187.13:61616"); Connection connection = factory.createConnection(); connection.start(); Session session = connection.createSession(Boolean.TRUE, Session.AUTO_ACKNOWLEDGE); //创建一个消息队列 session.createQueue("jms.test.topic")--P2P模式 Destination destination = session.createTopic("jms.test.topic"); //创建消息生产者 MessageProducer producer = session.createProducer(destination); //消息持久化 producer.setDeliveryMode(DeliveryMode.PERSISTENT); for (int i = 0; i < messageNum; i++) { producer.send(session.createTextMessage("Message Producer:" + i)); } //提交会话 session.commit();
消息消费者
//创建session会话 ConnectionFactory factory = new ActiveMQConnectionFactory("tcp://192.168.187.13:61616"); Connection connection = factory.createConnection(); connection.start(); Session session = connection.createSession(Boolean.TRUE, Session.AUTO_ACKNOWLEDGE); //创建一个消息队列 session.createQueue("jms.test.topic")--P2P模式 Destination destination = session.createTopic("jms.test.topic"); //创建消息消费者 MessageConsumer consumer = session.createConsumer(destination); while (true) { TextMessage message = (TextMessage) consumer.receive(); if (message != null){ System.out.println("Message Consumer:"+message.getText()); }else { break; } } session.commit();5.4 ActiveMQ的消息存储机制
KahaDB
ActiveMQ 5.3 版本起的默认存储方式。KahaDB存储是一个基于文件的快速存储消息,设计目标是易于使用且尽可能快。它使用基于文件的消息数据库意味着没有第三方数据库的先决条件。
AMQ
MQ存储使用户能够快速启动和运行,因为它不依赖于第三方数据库。AMQ 消息存储库是可靠持久性和高性能索引的事务日志组合,当消息吞吐量是应用程序的主要需求时,该存储是最佳选择。但因为它为每个索引使用两个分开的文件,并且每个 Destination 都有一个索引,所以当你打算在代理中使用数千个队列的时候,不应该使用它。
JDBC
选择关系型数据库,通常的原因是企业已经具备了管理关系型数据的专长,但是它在性能上绝对不优于上述消息存储实现。事实是,许多企业使用关系数据库作为存储,是因为他们更愿意充分利用这些数据库资源。
内存存储
内存消息存储器将所有持久消息保存在内存中。在仅存储有限数量 Message 的情况下,内存消息存储会很有用,因为 Message 通常会被快速消耗。在 activema.xml 中将 broker 元素上的 persistent 属性设置为 false 即可。
1.KahaDB存储的目录结构及简单说明
-rw-rw-r--. 1 lvmama01 lvmama01 32M 5月 18 09:47 db-1.log -rw-rw-r--. 1 lvmama01 lvmama01 32K 5月 18 09:47 db.data -rw-rw-r--. 1 lvmama01 lvmama01 33K 5月 18 09:47 db.redo -rw-rw-r--. 1 lvmama01 lvmama01 0 5月 16 19:31 lock
可以看出,上面directory一共有四个文件:
①db.data
它是消息的索引文件。本质上是B-Tree的实现,使用B-Tree作为索引指向db-*.log里面存储的消息。
②db.redo
主要用来进行消息恢复。
③db-*.log 存储消息的内容。对于一个消息而言,不仅仅有消息本身的数据(message data),而且还有(Destinations、订阅关系、事务...),data log以日志形式存储消息,而且新的数据总是以APPEND的方式追加到日志文件末尾。因此,消息的存储是很快的。比如,对于持久化消息,Producer把消息发送给Broker,Broker先把消息存储到磁盘中(enableJournalDiskSyncs配置选项),然后再向Producer返回Acknowledge。Append方式在一定程度上减少了Broker向Producer返回Acknowledge的时间。
④lock文件
2.KahaDB存储底层原理简单分析KahaDB内部分为:data logs, 按照Message ID高度优化的索引,memory message cache。
①在内存(cache)中的那部分B-Tree是Metadata Cache
通过将索引缓存到内存中,可以加快查询的速度(quick retrival of message data)。但是需要定时将 Metadata Cache 与 Metadata Store同步。这个同步过程就称为:check point。由checkpointInterval选项 决定每隔多久时间进行一次checkpoint操作。
②BTree Indexes则是保存在磁盘上的,称为Metadata Store,它对应于文件db.data,它就是对Data Logs以B树的形式索引。
有了它,Broker(消息服务器)可以快速地重启恢复,因为它是消息的索引,根据它就能恢复出每条消息的location。如果Metadata Store被损坏,则只能扫描整个Data Logs来重建B树了。
③Data Logs则对应于文件 db-*.log,默认是32MB
Data Logs以日志形式存储消息,它是生产者生产的数据的真正载体。
④Redo Log则对应于文件 db.redo,redo log的原理用到了“Double Write”。
简要记录下自己的理解:因为磁盘的页大小与操作系统的页大小不一样,磁盘的页大小一般是16KB,而OS的页大小是4KB。而数据写入磁盘是以磁盘页大小为单位进行的,即一次写一个磁盘页大小,这就需要4个OS的页大小(4*4=16)。如果在写入过程中出现故障(突然断电)就会导致只写入了一部分数据(partial page write)
而采用了“Double Write”之后,将数据写入磁盘时,先写到一个Recovery Buffer中,然后再写到真正的目的文件中。在ActiveMQ的源码PageFile.java中有相应的实现。
public void unload() throws IOException { //load时创建writeFile(db.data)和 recoveryFile(db.redo) writeFile = new RecoverableRandomAccessFile(file, "rw", false); ........ if (enableRecoveryFile) { recoveryFile = new RecoverableRandomAccessFile(getRecoveryFile(), "rw"); } } private void writeBatch() throws IOException { ....... //将数据写入磁盘时,先写到一个Recovery Buffer中(db.data) for (PageWrite w : batch) { try { checksum.update(w.getDiskBound(), 0, pageSize); } catch (Throwable t) { throw IOExceptionSupport.create("Cannot create recovery file. Reason: " + t, t); } recoveryFile.writeLong(w.page.getPageId()); recoveryFile.write(w.getDiskBound(), 0, pageSize); } ....... //写入真正的目的文件中(db.redo) for (PageWrite w : batch) { writeFile.seek(toOffset(w.page.getPageId())); writeFile.write(w.getDiskBound(), 0, pageSize); w.done(); } }5.4 ActiveMQ的部署模式
1.默认的单机部署(kahadb)
略......
2.共享存储主从模式(基于数据库)
3.共享存储主从模式(基于文件系统)
4.基于zookeeper的主从(levelDB Master/Slave详细说明)
第一步:zookeeper集群搭建
server.1=lvmama01:2888:3888 server.2=lvmama02:2888:3888 server.3=lvmama03:3888:3888
第二步:activemq集群搭建修改activemq.xml文件:
第三步:分别启动三台activemq(仔细查看日志):
1.启动第一台机器(lvmama01:192.168.187.11)
2.启动第二台机器(lvmama02:192.168.187.12)
3.第三台启动同第二台
第三步:查看是否启动成功(没成功可以查看activemq.log日志)
启动成功后通过zkCli.sh可以看到已创建leveldb-stores如下:
第四步:通过流量器访问web管理页面(注意只有master机器可以访问)
第五步:测试
String userName = ActiveMQConnectionFactory.DEFAULT_USER; String password = ActiveMQConnectionFactory.DEFAULT_PASSWORD; String brokerURL = "failover:(tcp://192.168.187.11:61616,tcp://192.168.187.12:61616,tcp://192.168.187.13:61616)?Randomize=false"; //2. 通过ConnectionFactory建立一个Connection连接,并且调用start方法开启 ConnectionFactory connectionFactory = new ActiveMQConnectionFactory(userName, password, brokerURL); Connection connection = connectionFactory.createConnection(); connection.start(); //3. 通过Connection创建Session,用于接收消息[第一个参数:是否启用事务;第二个参数:设置签收模式] Session session = connection.createSession(false, Session.CLIENT_ACKNOWLEDGE); //4. 通过Session创建Destination对象 Destination destination = session.createQueue("cluster-queue"); //5. 通过Session创建发送或接受对象 MessageProducer messageProducer = session.createProducer(null);
运行结果(此时发送的目标为192.168.187.11):
Connected to the target VM, address: "127.0.0.1:12266", transport: "socket" INFO | Successfully connected to tcp://192.168.187.11:61616 生产者:Hello MQ:1 生产者:Hello MQ:2 生产者:Hello MQ:3 生产者:Hello MQ:4 生产者:Hello MQ:5 生产者:Hello MQ:6 生产者:Hello MQ:7 生产者:Hello MQ:8 生产者:Hello MQ:9
此时将activemq master服务停止,集群自动重新选举 lvmama02(192.168.187.12)成为Master
我们再试运行测试用例发现消息任然可以发送,只不过发送的目标变为192.168.187.12
Connected to the target VM, address: "127.0.0.1:12400", transport: "socket" INFO | Successfully connected to tcp://192.168.187.12:61616 生产者:Hello MQ:1 生产者:Hello MQ:2 生产者:Hello MQ:3 生产者:Hello MQ:4 生产者:Hello MQ:5 生产者:Hello MQ:6 生产者:Hello MQ:7 生产者:Hello MQ:8 生产者:Hello MQ:9六.ActiveMQ性能测试
1.安装Jmeter测试工具,参考
2.新建jndi.properties到jmeter/bin目录下
//ActiveMQ jar包中init所需的类名 java.naming.factory.initial = org.apache.activemq.jndi.ActiveMQInitialContextFactory //ActiveMQ的地址 java.naming.provider.url = tcp://127.0.0.1:61616 //连接工厂名称 connectionFactoryNames = connectionFactory //p2p 队列名称 queue.MyQueue = example.MyQueue topic.MyTopic = example.MyTopic
3.把配置文件打到ApacheJMeter.jar 中 在jmeter/bin目录下运行
jar uf ApacheJMeter.jar jndi.properties
4.下载Activemq,并加activemq-all-5.15.3.jar添加到Jmeter/lib下
5.配置Jmeter测试p2p模式
新建线程组
新建JMS Point-to-Point采样并配置(参考jndi.properties)
6.进行测试(单线程+60s+10000条消息)
测试结果:
Jmeter官网测试结果:
可能由于机器原因,测试结果差距蛮大 ^_^
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/69457.html
摘要:主流消息中间件介绍是由出品,是一个完全支持和规范的实现。主流消息中间件介绍是阿里开源的消息中间件,目前也已经孵化为顶级项目。 showImg(https://img-blog.csdnimg.cn/20190509221741422.gif);showImg(https://img-blog.csdnimg.cn/20190718204938932.png?x-oss-process=...
摘要:而中的消息中间件则是在常见的消息中间件类型无疑是不错的选择。是在之间传递的消息的对象。基本功能是用于和面向消息的中间件相互通信的应用程序接口。支持两种消息发送和接收模型。一种称为模型,即采用点对点的方式发送消息。 消息中间件利用高效可靠的消息传递机制进行平台无关的数据交流,并基于数据通信来进行分布式系统的集成。通过提供消息传递和消息排队模型,它可以在分布式环境下扩展进程间的通信。而Ja...
摘要:一在各种电商网站下订单后会保留一个时间段,时间段内未支付则自动将订单状态设置为已过期。并修改这些数据的状态为已过期。因此以上方式实际开发中基本不予采用。时间到期了才会发送这条消息到消息队列中。 一、在各种电商网站下订单后会保留一个时间段,时间段内未支付则自动将订单状态设置为已过期。(原文链接 ) showImg(https://segmentfault.com/img/bVbv9BX?...
阅读 768·2021-11-18 10:02
阅读 2439·2021-11-11 16:54
阅读 2713·2021-09-02 09:45
阅读 631·2019-08-30 12:52
阅读 2641·2019-08-29 14:04
阅读 2715·2019-08-29 12:39
阅读 416·2019-08-29 12:27
阅读 1873·2019-08-26 13:23