当前位置: 首页 > news >正文

深入探索Kafka:了解其不可或缺的核心组件

🐇明明跟你说过:个人主页

🏅个人专栏:《数据流专家:Kafka探索》🏅

🔖行路有良友,便是天堂🔖

目录

一、引言 

1、Kafka简介

2、Kafka的应用场景 

3、Kafka与其他消息队列系统的对比 

Kafka 相对优势:

Kafka 相对劣势:

Kafka 与其他消息队列系统的对比:

二、核心组件

1、Producer(生产者)

1. 生产者的基本概念

2. 生产者的工作流程

2、Consumer(消费者)

1. 消费者的基本概念

2. 消费者的工作流程

3. 消费者的配置参数

3、Broker(代理服务器)

1. Broker 的基本概念

2. Broker 的工作流程

4、Topic(主题)

1. 主题的基本概念

2. 主题的特性

5、Partition(分区) 

1. 分区的基本概念

2. 分区的特性

6、Replica(副本)

1. 副本的基本概念

2. 副本的作用


一、引言 

1、Kafka简介

Apache Kafka 是一个开源的流处理平台,由 LinkedIn 开发并捐献给 Apache 软件基金会,用于实时数据流处理。Kafka 设计用于处理实时数据流,具有高吞吐量、可扩展性和容错性,广泛用于构建实时数据管道和流处理应用。

2、Kafka的应用场景 

1. 实时日志收集与分析

  • Kafka 可以作为日志收集系统的中间件,将分布式系统产生的日志集中存储在消息队列中,并实时传输给日志处理工具(如 ELK Stack、Fluentd 等),用于实时监控、分析和报警。

 

2. 数据管道与 ETL

  • Kafka 可以用作数据管道(Data Pipeline)的关键组件,用于将数据从源系统传输到目标系统,并进行实时的转换、清洗和加工。这种场景通常用于实现数据仓库、数据湖、实时分析等数据处理需求。

 

3. 实时事件处理

  • Kafka 可以作为事件驱动架构(Event-Driven Architecture)中的消息队列,用于在分布式系统中传递事件和消息。通过使用 Kafka,可以实现实时的事件处理、流式计算、实时推荐等功能。

 

4. 流式数据处理

  • Kafka 可以与流处理框架(如 Apache Flink、Apache Spark Streaming、Kafka Streams 等)集成,用于构建实时流式数据处理应用。这种场景通常用于实时数据分析、实时报表、实时风控等需求。

 

5. 分布式应用解耦

  • Kafka 可以作为分布式应用解耦的中间件,用于将不同服务之间的通信解耦,降低系统之间的依赖性和耦合度。通过使用 Kafka,可以实现分布式系统中的事件驱动、异步通信等特性。

   

3、Kafka与其他消息队列系统的对比 

Kafka 和其他消息队列系统相比,具有一些独特的设计特点和优势,也有一些不同的应用场景和适用性。

以下是 Kafka 与其他消息队列系统(如 RabbitMQ、ActiveMQ、RocketMQ 等)的对比:

Kafka 相对优势:


1. 高吞吐量:

  • Kafka 通过分区和分布式存储实现了高吞吐量的消息处理能力,能够处理数百万条消息的传输和存储。


2. 持久性和可靠性:

  • Kafka 使用可配置的数据复制机制和持久性存储,确保消息不丢失,并且具有高度的容错性。


3. 水平可扩展性:

  • Kafka 的设计允许水平扩展,可以轻松地添加新的 Broker 和扩展集群规模,以应对增长的消息负载。


4. 高性能的消息存储和检索:

  • Kafka 使用顺序 IO 和内存映射文件等技术,实现了高性能的消息存储和检索,可以在毫秒级别的延迟下进行消息读写。


5. 灵活的消息处理能力:

  • Kafka 支持多种消息处理模式,包括发布-订阅、队列、流处理等,可以满足不同应用场景下的消息处理需求。


6. 生态系统丰富:

  • Kafka 生态系统包括各种工具和库,如 Kafka Connect、Kafka Streams、MirrorMaker 等,提供了丰富的功能和集成选项。


Kafka 相对劣势:


1. 部署和维护成本较高:

  • Kafka 的部署和维护相对复杂,需要考虑到分布式系统的配置、监控、故障恢复等方面,对运维人员的技能要求较高。


2. 实时性和延迟:

  • 尽管 Kafka 提供了低延迟的消息处理能力,但在某些场景下可能无法满足实时性要求,特别是在复杂的消息处理流程中。


Kafka 与其他消息队列系统的对比:


1. RabbitMQ:

RabbitMQ 是一个经典的 AMQP(高级消息队列协议)消息队列系统,适用于传统的消息队列应用场景,提供了更多的消息路由、交换和队列管理功能。相比之下,Kafka 更适合处理大规模的消息流和实时数据处理。


2. ActiveMQ:

ActiveMQ 是一个功能丰富的 JMS(Java 消息服务)消息队列系统,适用于 Java 开发环境中的消息通信和集成应用。Kafka 与 ActiveMQ 相比更注重高吞吐量和大规模消息处理,适用于数据管道、实时日志、流处理等场景。


3. RocketMQ:

RocketMQ 是一个由阿里巴巴开发的分布式消息队列系统,适用于企业级的消息中间件和实时数据处理应用。与 Kafka 相比,RocketMQ 提供了更多的商业特性和支持,但在分布式存储和大规模消息处理方面,Kafka 更具优势。

Kafka 与其他消息队列系统相比,具有高吞吐量、持久性、可靠性和水平扩展性等优势,适用于大规模的实时数据流处理场景。然而,根据具体的应用需求和环境特点,选择适合的消息队列系统是很重要的。

   

二、核心组件

1、Producer(生产者)

在 Kafka 中,生产者(Producer)是负责向 Kafka 集群发送消息的组件。生产者通过将消息发布到指定的主题(Topic)和分区(Partition),将数据输入到 Kafka 系统中。

1. 生产者的基本概念

  •  生产者(Producer):一个生成和发送消息的客户端应用程序。它将消息发送到 Kafka 集群中的一个或多个主题。
  • 主题(Topic):消息的类别或名称,生产者将消息发送到指定的主题中。
  • 分区(Partition):每个主题可以分为多个分区,生产者可以选择将消息发送到特定的分区,或由 Kafka 根据某些策略(如轮询、哈希等)自动选择分区。 

2. 生产者的工作流程


连接到 Kafka 集群:

生产者首先需要配置 Kafka 集群的地址和连接参数,并与 Kafka 集群建立连接。


创建消息:

生产者应用程序生成消息,消息通常包含键(Key)、值(Value)和时间戳等信息。


发送消息:

生产者将消息发送到指定的主题和分区。可以使用同步或异步方式发送消息:
同步发送:生产者等待 Kafka 返回确认信息后,再继续发送下一条消息。
异步发送:生产者将消息放入缓冲区,然后立即返回,由后台线程异步发送消息。


确认和重试:

生产者可以配置消息发送的确认机制(ack),如:

  • acks=0:生产者不等待任何确认。
  • acks=1:生产者等待 leader 分区的确认。
  • acks=all:生产者等待所有副本分区的确认。

如果消息发送失败,生产者可以配置重试机制,以确保消息成功发送。 

  

 

2、Consumer(消费者)

在 Kafka 中,消费者(Consumer)是负责从 Kafka 集群中读取和处理消息的组件。消费者从特定的主题(Topic)和分区(Partition)中获取消息,并对消息进行处理或进一步传递。

 

1. 消费者的基本概念


消费者(Consumer):一个读取和处理消息的客户端应用程序。它从 Kafka 主题中消费消息。
消费者组(Consumer Group):一组消费者实例,共同消费一个或多个主题中的消息。消费者组中的每个消费者实例会被分配到一个或多个分区,从而实现负载均衡。


2. 消费者的工作流程


1. 连接到 Kafka 集群:

  • 消费者首先需要配置 Kafka 集群的地址和连接参数,并与 Kafka 集群建立连接。


2. 订阅主题:

  • 消费者订阅一个或多个主题,可以使用主题名称或主题模式进行订阅。


3. 拉取消息:

  • 消费者从分配到的分区中拉取消息,可以设置消息拉取的批量大小、超时时间等参数。


4. 处理消息:

  • 消费者对拉取到的消息进行处理,包括数据解析、业务逻辑处理等。


5. 提交偏移量:

  • 消费者处理完消息后,需要提交消息的偏移量(offset),以记录消息处理的进度。偏移量提交可以是自动的也可以是手动的。


3. 消费者的配置参数

  • bootstrap.servers:Kafka 集群的地址列表。
  • group.id:消费者所属的消费者组的 ID。
  • key.deserializer value.deserializer:消息键和值的反序列化类,用于将字节数组转换为具体的数据类型。
  • auto.offset.reset:指定消费者在没有初始偏移量或偏移量无效时从哪里开始消费(如 earliest、latest)。
  • enable.auto.commit:是否启用自动提交偏移量。
  • auto.commit.interval.ms:自动提交偏移量的时间间隔。

   

3、Broker(代理服务器)

在 Kafka 中,代理服务器(Broker)是负责接收、存储和传输消息的核心组件。Kafka 集群通常由多个 Broker 组成,它们共同工作以提供分布式、高吞吐量和高可用性的消息系统。

 

1. Broker 的基本概念


Broker(代理服务器):Kafka 集群中的一个实例,负责接收来自生产者的消息、存储消息以及将消息发送给消费者。
Topic(主题):Broker 存储消息的逻辑分类,每个主题可以分为多个分区(Partition)。
Partition(分区):主题下的消息分区,提供并行处理和分布式存储。


2. Broker 的工作流程


1. 接收消息:

  • 生产者将消息发送到 Kafka 集群中的某个主题,Broker 接收到这些消息后将其写入对应的分区。


2. 存储消息:

  • Broker 持久化存储消息到磁盘,以保证消息的可靠性和持久性。


3. 消息复制:

  • 为了保证高可用性和容错性,每个分区可以配置多个副本(Replica),这些副本分布在不同的 Broker 上。


4. 消息消费:

  • 消费者向 Broker 请求消息,Broker 从指定的分区中读取消息并返回给消费者。


5. 管理元数据:

  • Broker 负责维护和管理主题、分区、偏移量等元数据信息,并与 Zookeeper 协同工作来管理集群状态。

   

 

4、Topic(主题)

在 Kafka 中,主题(Topic)是消息的逻辑分类单元,生产者将消息发送到指定的主题,消费者从主题中消费消息。主题在 Kafka 中起到组织和管理消息的重要作用。

 

1. 主题的基本概念


主题(Topic):消息的逻辑分类单元,类似于日志记录的类别。一个主题可以有多个生产者和多个消费者。
分区(Partition):主题的物理分片,每个主题可以分为多个分区。分区是 Kafka 并行处理和分布式存储的基础。


2. 主题的特性


1. 多生产者和多消费者:

一个主题可以有多个生产者将消息发送到该主题,也可以有多个消费者从该主题中读取消息。


2. 分区(Partitioning):

每个主题可以分为多个分区,每个分区是一个有序的、不可变的消息序列。分区使得 Kafka 可以并行处理消息,提高了吞吐量和扩展性。


3. 副本(Replication):

为了保证高可用性和容错性,每个分区可以配置多个副本(Replica),副本分布在不同的 Broker 上,确保在某个 Broker 宕机时数据不丢失。

  

5、Partition(分区) 

在 Kafka 中,分区(Partition)是主题的基本组成部分,每个主题可以分为多个分区。分区是 Kafka 并行处理和分布式存储的基础,提供了高吞吐量和容错能力。

 

1. 分区的基本概念

  • 分区(Partition):主题的物理分片,每个分区是一个有序的、不可变的消息序列。
  • Leader 副本:每个分区有一个 Leader 副本,负责处理所有的读写请求。
  • Follower 副本:每个分区可以有多个 Follower 副本,负责从 Leader 副本同步数据,以提供容错能力。


2. 分区的特性


1. 有序性:

每个分区内的消息是有序的,即消息有一个递增的偏移量(Offset)。


2. 并行处理:

不同分区可以并行处理,提高了消息处理的吞吐量。生产者可以并行地将消息发送到不同分区,消费者可以并行地从不同分区消费消息。


3. 容错性:

分区可以配置多个副本(Replica),确保在 Broker 宕机时数据不会丢失。Leader 副本负责处理请求,Follower 副本与 Leader 副本同步数据。

  

6、Replica(副本)

在 Kafka 中,副本(Replica)是为了确保数据高可用性和容错能力而设计的。每个分区可以有多个副本,这些副本分布在不同的 Broker 上。副本机制使得 Kafka 能够在部分 Broker 故障的情况下继续运行,并保证数据不丢失。

 

1. 副本的基本概念

  • 副本(Replica):每个分区可以有一个或多个副本,副本是分区的完整备份。
  • Leader 副本:每个分区的一个副本被选为 Leader 副本,负责处理所有的读写请求。
  • Follower 副本:其他副本称为 Follower 副本,负责从 Leader 副本同步数据。


2. 副本的作用


1. 数据冗余:

通过在多个 Broker 上存储分区副本,Kafka 提供了数据冗余,确保数据在单个 Broker 故障时不会丢失。


2. 高可用性:

如果 Leader 副本所在的 Broker 宕机,Kafka 会从 Follower 副本中选举新的 Leader 副本,确保分区继续可用。


3. 容错性:

副本机制使 Kafka 能够容忍部分 Broker 故障,并在故障恢复后自动重新同步数据。

  

💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些关于Kafka的文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺

🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!   

相关文章:

  • linux:切分大文件
  • 论文精读:UFO: A UI-Focused Agent for Windows OS Interaction
  • 521源码-在线客服-CRMChat网页版客服系统 UNIAPP 全方位在线客服系统源码与管理体系平台
  • TS代码解读:eslint-disable-next-line @typescript-eslint/no-namespace
  • “Excel+中文编程”衍生新型软件,WPS用户:自家孩子
  • 数据库查询-聚合函数详解,聚合函数应用,分组查询
  • 【相机开发问题总结】后台恢复到前台预览界面卡住
  • 【14】bat脚本备份mysql数据
  • 重大活动网络安全保障建设及运营指南
  • C++开源库glog使用封装--自定义日志输出格式,设置日志保留时间
  • nginx 配置stream模块代理并开启日志配置
  • id3算法【python,算法,机器学习】
  • 星型模型和雪花模型的区别
  • 面试经历-凉经
  • 基于Matlab实现声纹识别系统
  • 【162天】黑马程序员27天视频学习笔记【Day02-上】
  • Android交互
  • Angular数据绑定机制
  • Bootstrap JS插件Alert源码分析
  • CNN 在图像分割中的简史:从 R-CNN 到 Mask R-CNN
  • express如何解决request entity too large问题
  • extract-text-webpack-plugin用法
  • GitUp, 你不可错过的秀外慧中的git工具
  • Java新版本的开发已正式进入轨道,版本号18.3
  • 阿里云爬虫风险管理产品商业化,为云端流量保驾护航
  • 编写符合Python风格的对象
  • 从tcpdump抓包看TCP/IP协议
  • 技术发展面试
  • 近期前端发展计划
  • 批量截取pdf文件
  • 前端知识点整理(待续)
  • 前嗅ForeSpider中数据浏览界面介绍
  • 通过获取异步加载JS文件进度实现一个canvas环形loading图
  • 为物联网而生:高性能时间序列数据库HiTSDB商业化首发!
  • 移动端解决方案学习记录
  • AI又要和人类“对打”,Deepmind宣布《星战Ⅱ》即将开始 ...
  • #includecmath
  • (Matlab)使用竞争神经网络实现数据聚类
  • (阿里巴巴 dubbo,有数据库,可执行 )dubbo zookeeper spring demo
  • (超详细)语音信号处理之特征提取
  • (附源码)spring boot网络空间安全实验教学示范中心网站 毕业设计 111454
  • (附源码)ssm码农论坛 毕业设计 231126
  • (更新)A股上市公司华证ESG评级得分稳健性校验ESG得分年均值中位数(2009-2023年.12)
  • (考研湖科大教书匠计算机网络)第一章概述-第五节1:计算机网络体系结构之分层思想和举例
  • (转)JAVA中的堆栈
  • (转)平衡树
  • .halo勒索病毒解密方法|勒索病毒解决|勒索病毒恢复|数据库修复
  • .NET C# 操作Neo4j图数据库
  • .NET CORE Aws S3 使用
  • .NET Core 中插件式开发实现
  • .NET 使用 ILMerge 合并多个程序集,避免引入额外的依赖
  • .NET(C#、VB)APP开发——Smobiler平台控件介绍:Bluetooth组件
  • .NET/ASP.NETMVC 深入剖析 Model元数据、HtmlHelper、自定义模板、模板的装饰者模式(二)...
  • .NET/C# 将一个命令行参数字符串转换为命令行参数数组 args
  • .NET:自动将请求参数绑定到ASPX、ASHX和MVC(菜鸟必看)