当前位置: 首页 > news >正文

13-Linux部署Kafka集群

Linux部署Kafka集群

简介

Kafka是一款分布式的、去中心化的、高吞吐低延迟、订阅模式的消息队列系统。

同RabbitMQ一样,Kafka也是消息队列。不过RabbitMQ多用于后端系统,因其更加专注于消息的延迟和容错。

Kafka多用于大数据体系,因其更加专注于数据的吞吐能力。

Kafka多数都是运行在分布式(集群化)模式下,所以课程将以3台服务器,来完成Kafka集群的安装部署。

Kafka官网:https://kafka.apache.org/

安装

  1. 确保已经安装并部署了JDK和Zookeeper服务

    Kafka的运行依赖JDK环境和Zookeeper请确保已经有了JDK环境和Zookeeper

    参考文章

    11-Linux部署集群准备:http://t.csdnimg.cn/zWbnd

    12-Linux部署Zookeeper集群:http://t.csdnimg.cn/dOvt5

  2. 【在node1操作】下载并上传Kafka的安装包

    # 下载安装包
    wget --no-check-certificate http://archive.apache.org/dist/kafka/3.7.0/kafka_2.12-3.7.0.tgz
    
  3. 【在node1操作】解压

    mkdir -p /export/server			# 此文件夹如果不存在需先创建# 解压
    tar -zxvf kafka_2.12-3.7.0.tgz -C /export/server/# 创建软链接
    ln -s /export/server/kafka_2.12-3.7.0 /export/server/kafka
    
  4. 【在node1操作】修改Kafka目录内的config目录内的server.properties文件

    cd /export/server/kafka/config
    vim server.properties
    
    • 只修改为以下内容
    # 24行指定broker的id
    broker.id=1
    # 34行指定 kafka的绑定监听的地址
    listeners=PLAINTEXT://node1:9092
    # 62行指定Kafka数据的位置
    log.dirs=/export/server/kafka/data
    # 125行指定Zookeeper的三个节点
    zookeeper.connect=node1:2181,node2:2181,node3:2181
    
  5. 【在node1操作】将node1的kafka复制到node2和node3

    cd /export/server# 复制到node2同名文件夹
    scp -r kafka_2.12-3.7.0 node2:`pwd`/
    # 复制到node3同名文件夹
    scp -r kafka_2.12-3.7.0 node3:$PWD
    
  6. 【在node2操作】

    • 创建软链接
    ln -s /export/server/kafka_2.12-3.7.0 /export/server/kafka
    
    • 修改Kafka目录内的config目录内的server.properties文件
    cd /export/server/kafka/config
    vim server.properties
    
    • 修改以下内容
    # 24行指定broker的id
    broker.id=2
    # 34行指定 kafka的绑定监听的地址
    listeners=PLAINTEXT://node2:9092
    # 62行指定Kafka数据的位置
    log.dirs=/export/server/kafka/data
    # 125行指定Zookeeper的三个节点
    zookeeper.connect=node1:2181,node2:2181,node3:2181
    
  7. 【在node3操作】

    • 创建软链接
    ln -s /export/server/kafka_2.12-3.7.0 /export/server/kafka
    
    • 修改Kafka目录内的config目录内的server.properties文件
    cd /export/server/kafka/config
    vim server.properties
    
    • 复制以下内容
    # 24行指定broker的id
    broker.id=3
    # 34行指定 kafka的绑定监听的地址
    listeners=PLAINTEXT://node3:9092
    # 62行指定Kafka数据的位置
    log.dirs=/export/server/kafka/data
    # 125行指定Zookeeper的三个节点
    zookeeper.connect=node1:2181,node2:2181,node3:2181
    
  8. 启动kafka

    • 启动zookeeper

    • 进入zookeeper的bin目录下,运行zkCli.sh

    cd /export/server/zookeeper/bin
    ./zkCli.sh
    

    启动kafka,请先确保Zookeeper已经启动了

    • 方式1:【前台启动】分别在node1、2、3上执行如下语句
    /export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties
    
    • node1

    image-20240228160453145

    • node2

    image-20240228160530180

    • node3

    image-20240228160551496

    • 方式2:【后台启动】分别在node1、2、3上执行如下语句
    nohup /export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties 2>&1 >> /export/server/kafka/kafka-server.log &
    

    image-20240228161303196

  9. 验证Kafka启动

    # 在每一台服务器执行
    jps
    

测试Kafka能否正常使用

  1. 创建测试主题
# 在node1执行,创建一个主题
/export/server/kafka_2.12-3.7.0/bin/kafka-topics.sh --create --zookeeper node1:2181 --replication-factor 1 --partitions 3 --topic test
  1. 运行测试,请在xshell中打开2个node1的终端页面
  2. 打开一个终端页面,启动一个模拟的数据生产者
/export/server/kafka_2.12-3.7.0/bin/kafka-console-producer.sh --broker-list node1:9092 --topic test
  1. 再打开一个新的终端页面,在启动一个模拟的数据消费者
/export/server/kafka_2.12-3.7.0/bin/kafka-console-consumer.sh --bootstrap-server node1:9092 --topic test --from-beginning

image-20240228163601062

注意:在node1中输入退格键时会输入**^H**,同时按住Ctrlbackspace键能删除字符

相关文章:

  • 关于在Ubuntu20.04环境下安装GRPC
  • sawForceDimensionSDK安装,sigma7+ros
  • 大数据数据平台的数仓体系分类有哪些?
  • 智能家居控制系统(51单片机)
  • vue前端密码加密,springboot后端密码解密
  • webstorm 创建运行纯Typescript项目
  • 多行业万能预约门店小程序源码系统 支持多门店预约小程序 带完整的安装代码包以及搭建教程
  • Python自动发邮件
  • vite打包构建时环境变量(env)生成可配置的js文件
  • Rocky Linux 运维工具 Systemd
  • 【每日一题】2867. 统计树中的合法路径数目-2024.2.27
  • AI大模型分析:数据背后隐藏的故事!
  • 【蓝桥杯】错误票据
  • 贪心 Leetcode 56 合并区间
  • 算法复习之二分【备战蓝桥杯】
  • 【node学习】协程
  • 2019.2.20 c++ 知识梳理
  • 8年软件测试工程师感悟——写给还在迷茫中的朋友
  • download使用浅析
  • Fastjson的基本使用方法大全
  • flutter的key在widget list的作用以及必要性
  • Linux学习笔记6-使用fdisk进行磁盘管理
  • Lsb图片隐写
  • Odoo domain写法及运用
  • puppeteer stop redirect 的正确姿势及 net::ERR_FAILED 的解决
  • Python中eval与exec的使用及区别
  • Solarized Scheme
  • Vue学习第二天
  • weex踩坑之旅第一弹 ~ 搭建具有入口文件的weex脚手架
  • 闭包--闭包作用之保存(一)
  • 从零开始在ubuntu上搭建node开发环境
  • 给初学者:JavaScript 中数组操作注意点
  • 融云开发漫谈:你是否了解Go语言并发编程的第一要义?
  • 如何合理的规划jvm性能调优
  • 数据结构java版之冒泡排序及优化
  • 微服务入门【系列视频课程】
  • 我从编程教室毕业
  • 译米田引理
  • 看到一个关于网页设计的文章分享过来!大家看看!
  • Mac 上flink的安装与启动
  • 关于Android全面屏虚拟导航栏的适配总结
  • ​​​​​​​​​​​​​​Γ函数
  • ​LeetCode解法汇总2182. 构造限制重复的字符串
  • ​批处理文件中的errorlevel用法
  • ​软考-高级-系统架构设计师教程(清华第2版)【第20章 系统架构设计师论文写作要点(P717~728)-思维导图】​
  • (5)STL算法之复制
  • (webRTC、RecordRTC):navigator.mediaDevices undefined
  • (十)c52学习之旅-定时器实验
  • (续)使用Django搭建一个完整的项目(Centos7+Nginx)
  • (一)基于IDEA的JAVA基础12
  • (转)Windows2003安全设置/维护
  • *2 echo、printf、mkdir命令的应用
  • .form文件_SSM框架文件上传篇
  • .net 逐行读取大文本文件_如何使用 Java 灵活读取 Excel 内容 ?
  • .NET框架