当前位置: 首页 > news >正文

rabbitmq 多个消费者消费一个队列_RabbitMQ——消费端限流、TTL、死信队列

消费端限流#

1. 为什么要对消费端限流#

假设一个场景,首先,我们 Rabbitmq 服务器积压了有上万条未处理的消息,我们随便打开一个消费者客户端,会出现这样情况: 巨量的消息瞬间全部推送过来,但是我们单个客户端无法同时处理这么多数据!

当数据量特别大的时候,我们对生产端限流肯定是不科学的,因为有时候并发量就是特别大,有时候并发量又特别少,我们无法约束生产端,这是用户的行为。所以我们应该对消费端限流,用于保持消费端的稳定,当消息数量激增的时候很有可能造成资源耗尽,以及影响服务的性能,导致系统的卡顿甚至直接崩溃。

2.限流的 api 讲解#

RabbitMQ 提供了一种 qos (服务质量保证)功能,即在非自动确认消息的前提下,如果一定数目的消息(通过基于 consume 或者 channel 设置 Qos 的值)未被确认前,不进行消费新的消息。

Copy/*** Request specific "quality of service" settings.* These settings impose limits on the amount of data the server* will deliver to consumers before requiring acknowledgements.* Thus they provide a means of consumer-initiated flow control.* @param prefetchSize maximum amount of content (measured in* octets) that the server will deliver, 0 if unlimited* @param prefetchCount maximum number of messages that the server* will deliver, 0 if unlimited* @param global true if the settings should be applied to the* entire channel rather than each consumer* @throws java.io.IOException if an error is encountered*/void basicQos(int prefetchSize, int prefetchCount, boolean global) throws IOException;
  • prefetchSize:0,单条消息大小限制,0代表不限制
  • prefetchCount:一次性消费的消息数量。会告诉 RabbitMQ 不要同时给一个消费者推送多于 N 个消息,即一旦有 N 个消息还没有 ack,则该 consumer 将 block 掉,直到有消息 ack。
  • global:true、false 是否将上面设置应用于 channel,简单点说,就是上面限制是 channel 级别的还是 consumer 级别。当我们设置为 false 的时候生效,设置为 true 的时候没有了限流功能,因为 channel 级别尚未实现。
  • 注意:prefetchSize 和 global 这两项,rabbitmq 没有实现,暂且不研究。特别注意一点,prefetchCount 在 no_ask=false 的情况下才生效,即在自动应答的情况下这两个值是不生效的。

3.如何对消费端进行限流#

  • 首先第一步,我们既然要使用消费端限流,我们需要关闭自动 ack,将 autoAck 设置为 falsechannel.basicConsume(queueName, false, consumer);
  • 第二步我们来设置具体的限流大小以及数量。channel.basicQos(0, 15, false);
  • 第三步在消费者的 handleDelivery 消费方法中手动 ack,并且设置批量处理 ack 回应为 truechannel.basicAck(envelope.getDeliveryTag(), true);

这是生产端代码,与前几章的生产端代码没有做任何改变,主要的操作集中在消费端。

Copyimport com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;public class QosProducer {    public static void main(String[] args) throws Exception {        //1. 创建一个 ConnectionFactory 并进行设置        ConnectionFactory factory = new ConnectionFactory();        factory.setHost("localhost");        factory.setVirtualHost("/");        factory.setUsername("guest");        factory.setPassword("guest");        //2. 通过连接工厂来创建连接        Connection connection = factory.newConnection();        //3. 通过 Connection 来创建 Channel        Channel channel = connection.createChannel();        //4. 声明        String exchangeName = "test_qos_exchange";        String routingKey = "item.add";        //5. 发送        String msg = "this is qos msg";        for (int i = 0; i < 10; i++) {            String tem = msg + " : " + i;            channel.basicPublish(exchangeName, routingKey, null, tem.getBytes());            System.out.println("Send message : " + tem);        }        //6. 关闭连接        channel.close();        connection.close();    }}

这里我们创建一个消费者,通过以下代码来验证限流效果以及 global 参数设置为 true 时不起作用.。我们通过Thread.sleep(5000); 来让 ack 即处理消息的过程慢一些,这样我们就可以从后台管理工具中清晰观察到限流情况。

Copyimport com.rabbitmq.client.*;import java.io.IOException;public class QosConsumer {    public static void main(String[] args) throws Exception {        //1. 创建一个 ConnectionFactory 并进行设置        ConnectionFactory factory = new ConnectionFactory();        factory.setHost("localhost");        factory.setVirtualHost("/");        factory.setUsername("guest");        factory.setPassword("guest");        factory.setAutomaticRecoveryEnabled(true);        factory.setNetworkRecoveryInterval(3000);        //2. 通过连接工厂来创建连接        Connection connection = factory.newConnection();        //3. 通过 Connection 来创建 Channel        final Channel channel = connection.createChannel();        //4. 声明        String exchangeName = "test_qos_exchange";        String queueName = "test_qos_queue";        String routingKey = "item.#";        channel.exchangeDeclare(exchangeName, "topic", true, false, null);        channel.queueDeclare(queueName, true, false, false, null);        channel.basicQos(0, 3, false);        //一般不用代码绑定,在管理界面手动绑定        channel.queueBind(queueName, exchangeName, routingKey);        //5. 创建消费者并接收消息        Consumer consumer = new DefaultConsumer(channel) {            @Override            public void handleDelivery(String consumerTag, Envelope envelope,                                       AMQP.BasicProperties properties, byte[] body)                    throws IOException {                try {                    Thread.sleep(5000);                } catch (InterruptedException e) {                    e.printStackTrace();                }                String message = new String(body, "UTF-8");                System.out.println("[x] Received '" + message + "'");                channel.basicAck(envelope.getDeliveryTag(), true);            }        };        //6. 设置 Channel 消费者绑定队列        channel.basicConsume(queueName, false, consumer);        channel.basicConsume(queueName, false, consumer1);    }}

我们从下图中发现 Unacked值一直都是 3 ,每过 5 秒 消费一条消息即 Ready 和 Total 都减少 3,而 Unacked的值在这里代表消费者正在处理的消息,通过我们的实验发现了消费者一次性最多处理 3 条消息,达到了消费者限流的预期功能。

24a89bf8b3b0d17c1ee159c4e82611b7.png

当我们将void basicQos(int prefetchSize, int prefetchCount, boolean global)中的 global 设置为 true的时候我们发现并没有了限流的作用。

TTL#

TTL是Time To Live的缩写,也就是生存时间。RabbitMQ支持消息的过期时间,在消息发送时可以进行指定。RabbitMQ支持队列的过期时间,从消息入队列开始计算,只要超过了队列的超时时间配置,那么消息会自动的清除。

这与 Redis 中的过期时间概念类似。我们应该合理使用 TTL 技术,可以有效的处理过期垃圾消息,从而降低服务器的负载,最大化的发挥服务器的性能。

RabbitMQ allows you to set TTL (time to live) for both messages and queues. This can be done using optional queue arguments or policies (the latter option is recommended). Message TTL can be enforced for a single queue, a group of queues or applied for individual messages.

RabbitMQ允许您为消息和队列设置TTL(生存时间)。 这可以使用可选的队列参数或策略来完成(建议使用后一个选项)。 可以对单个队列,一组队列强制执行消息TTL,也可以为单个消息应用消息TTL。

​ ——摘自 RabbitMQ 官方文档

1.消息的 TTL#

我们在生产端发送消息的时候可以在 properties 中指定 expiration属性来对消息过期时间进行设置,单位为毫秒(ms)。

Copy /**         * deliverMode 设置为 2 的时候代表持久化消息         * expiration 意思是设置消息的有效期,超过10秒没有被消费者接收后会被自动删除         * headers 自定义的一些属性         * */        //5. 发送        Map headers = new HashMap();        headers.put("myhead1", "111");        headers.put("myhead2", "222");        AMQP.BasicProperties properties = new AMQP.BasicProperties().builder()                .deliveryMode(2)                .contentEncoding("UTF-8")                .expiration("100000")                .headers(headers)                .build();        String msg = "test message";        channel.basicPublish("", queueName, properties, msg.getBytes());

我们也可以后台管理页面中进入 Exchange 发送消息指定expiration

18126910101ed98649de45832e14c0ba.png

2.队列的 TTL#

我们也可以在后台管理界面中新增一个 queue,创建时可以设置 ttl,对于队列中超过该时间的消息将会被移除。

f04a264f5d03a5417b03a843ea9f0c3e.png

死信队列#

死信队列:没有被及时消费的消息存放的队列

消息没有被及时消费的原因:

  • a.消息被拒绝(basic.reject/ basic.nack)并且不再重新投递 requeue=false
  • b.TTL(time-to-live) 消息超时未消费
  • c.达到最大队列长度

实现死信队列步骤#

  • 首先需要设置死信队列的 exchange 和 queue,然后进行绑定:CopyExchange: dlx.exchange Queue: dlx.queue RoutingKey: # 代表接收所有路由 key
  • 然后我们进行正常声明交换机、队列、绑定,只不过我们需要在普通队列加上一个参数即可: arguments.put("x-dead-letter-exchange",' dlx.exchange' )
  • 这样消息在过期、requeue失败、 队列在达到最大长度时,消息就可以直接路由到死信队列!
Copyimport com.rabbitmq.client.AMQP;import com.rabbitmq.client.Channel;import com.rabbitmq.client.Connection;import com.rabbitmq.client.ConnectionFactory;public class DlxProducer {    public static void main(String[] args) throws Exception {//设置连接以及创建 channel 湖绿        String exchangeName = "test_dlx_exchange";        String routingKey = "item.update";              String msg = "this is dlx msg";        //我们设置消息过期时间,10秒后再消费 让消息进入死信队列        AMQP.BasicProperties properties = new AMQP.BasicProperties().builder()                .deliveryMode(2)                .expiration("10000")                .build();        channel.basicPublish(exchangeName, routingKey, true, properties, msg.getBytes());        System.out.println("Send message : " + msg);        channel.close();        connection.close();    }}
Copyimport com.rabbitmq.client.*;import java.io.IOException;import java.util.HashMap;import java.util.Map;public class DlxConsumer {    public static void main(String[] args) throws Exception {//创建连接、创建channel忽略 内容可以在上面代码中获取        String exchangeName = "test_dlx_exchange";        String queueName = "test_dlx_queue";        String routingKey = "item.#";        //必须设置参数到 arguments 中        Map arguments = new HashMap();        arguments.put("x-dead-letter-exchange", "dlx.exchange");        channel.exchangeDeclare(exchangeName, "topic", true, false, null);        //将 arguments 放入队列的声明中        channel.queueDeclare(queueName, true, false, false, arguments);        //一般不用代码绑定,在管理界面手动绑定        channel.queueBind(queueName, exchangeName, routingKey);        //声明死信队列        channel.exchangeDeclare("dlx.exchange", "topic", true, false, null);        channel.queueDeclare("dlx.queue", true, false, false, null);        //路由键为 # 代表可以路由到所有消息        channel.queueBind("dlx.queue", "dlx.exchange", "#");        Consumer consumer = new DefaultConsumer(channel) {            @Override            public void handleDelivery(String consumerTag, Envelope envelope,                                       AMQP.BasicProperties properties, byte[] body)                    throws IOException {                String message = new String(body, "UTF-8");                System.out.println(" [x] Received '" + message + "'");            }        };        //6. 设置 Channel 消费者绑定队列        channel.basicConsume(queueName, true, consumer);    }}

总结#

DLX也是一个正常的 Exchange,和一般的 Exchange 没有区别,它能在任何的队列上被指定,实际上就是设置某个队列的属性。当这个队列中有死信时,RabbitMQ 就会自动的将这个消息重新发布到设置的 Exchange 上去,进而被路由到另一个队列。可以监听这个队列中消息做相应的处理。

作者: 海向

出处:https://www.cnblogs.com/haixiang/p/10905189.html

本站使用「CC BY 4.0」创作共享协议,转载请在文章明显位置注明作者及出处。

相关文章:

  • DX9中如何模拟DX10/11里的ConstantBuffer
  • python怎么除去列表l中所有是x的元素_Python学习教程(Python学习路线):Python3之递归函数简单示例...
  • Windows phone 7 Series发布!
  • json_extract提取复杂json_4个小窍门,让你在Python中高效使用JSON
  • 关于Windows phone 7 series开发方面的传言
  • centos找不到apt-get命令_Centos 使用 pyinstaller 打包踩坑分享
  • python cv2 imshow_Python-OpenCV 2. 图像基本操作
  • wild magic3 渲染状态更新和scene绘制
  • 跨域获取后台数据undefined_拨号跨域问题
  • 软件文档归类汇总
  • java aes加密_行走江湖,安全第一 | 尚硅谷Java安全密码学教程发布!
  • 今天是最后的悠闲。
  • kernel编译 openwrt_OpenWRT实践3:Click Modular Router
  • 关于Mercurial(Hg)
  • python异常处理机制_错误处理
  • 3.7、@ResponseBody 和 @RestController
  • Intervention/image 图片处理扩展包的安装和使用
  • JavaScript 无符号位移运算符 三个大于号 的使用方法
  • JavaScript服务器推送技术之 WebSocket
  • Java面向对象及其三大特征
  • Js基础——数据类型之Null和Undefined
  • Linux gpio口使用方法
  • MySQL用户中的%到底包不包括localhost?
  • nginx 配置多 域名 + 多 https
  • Rancher如何对接Ceph-RBD块存储
  • Spring Cloud中负载均衡器概览
  • Webpack入门之遇到的那些坑,系列示例Demo
  • 基于遗传算法的优化问题求解
  • 实战|智能家居行业移动应用性能分析
  • 限制Java线程池运行线程以及等待线程数量的策略
  • 新书推荐|Windows黑客编程技术详解
  • 责任链模式的两种实现
  • 7行Python代码的人脸识别
  • Java总结 - String - 这篇请使劲喷我
  • PostgreSQL 快速给指定表每个字段创建索引 - 1
  • 容器镜像
  • ​​​​​​​ubuntu16.04 fastreid训练过程
  • (1)(1.8) MSP(MultiWii 串行协议)(4.1 版)
  • (DFS + 剪枝)【洛谷P1731】 [NOI1999] 生日蛋糕
  • (env: Windows,mp,1.06.2308310; lib: 3.2.4) uniapp微信小程序
  • (第9篇)大数据的的超级应用——数据挖掘-推荐系统
  • (五)网络优化与超参数选择--九五小庞
  • (转)Oracle 9i 数据库设计指引全集(1)
  • ... fatal error LINK1120:1个无法解析的外部命令 的解决办法
  • .bat批处理(五):遍历指定目录下资源文件并更新
  • .net(C#)中String.Format如何使用
  • .NET企业级应用架构设计系列之技术选型
  • .NET性能优化(文摘)
  • // an array of int
  • /proc/vmstat 详解
  • @RestControllerAdvice异常统一处理类失效原因
  • []error LNK2001: unresolved external symbol _m
  • [2013][note]通过石墨烯调谐用于开关、传感的动态可重构Fano超——
  • [20150321]索引空块的问题.txt
  • [202209]mysql8.0 双主集群搭建 亲测可用