当前位置: 首页 > news >正文

docker compose 安装 kafka

一 前置准备

创建 /data/kafkadata /data/zookeeper-1用于保存kafka和zookeeper的配置文件

kafkadata中创建三个文件夹 /kafka1 /kafka2 /kafka3,用于存放三个kafka节点的配置文件

zookeeper-1文件夹中创建 /conf /data /logs /datalog四个文件夹,用于存放zk的信息

kafka1 kafka2 kafka3中创建server.properties

其中broker.id需要修改为对应编号 1,2,3

#broker的全局唯一编号,不能重复
broker.id=1
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka数据的存储位置
log.dirs=/opt/apache/kafka/logs
#指定Topic的分区数量,这里设置为3。默认只有一个分区,设置多分区可以支持并发读写和负载均衡
num.partitions=3
#副本,默认只有一个副本,不会进行数据备份和冗余
replication.factor=3
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=zookeeper-1:2181
#zookeeper连接超时时间
zookeeper.connection.timeout.ms=60000
message.max.bytes=104857600
replica.fetch.max.bytes=104857600

zookeeper-1/conf目录下创建zoo.cfg

dataDir=/data
dataLogDir=/datalog
clientPort=2181
tickTime=2000
initLimit=5
syncLimit=2
autopurge.snapRetainCount=3
autopurge.purgeInterval=0
maxClientCnxns=60
standaloneEnabled=true
admin.enableServer=true
server.1=zookeeper-1:2888:3888
jute.maxbuffer=104857600

zookeeper-1/conf目录下创建log4j.properties 用于zk的日志输出,后期启动正常后可以修改输出登记

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target=System.out
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d{ISO8601} [%t] %-5p %c %x - %m%n

将conf和kafkadata的权限赋予读写权限

比如对zookeeper-1的conf文件夹直接赋予777权限

chmod 777 conf

目录创建完成后结构示意【忽略kafka1 2 3的logs目录和zookeeper-1的data和datalog下的文件,是运行后产生的文件.plugins是未来有需要时使用,目前可以不用创建】

二 编写docker compose

将其中的IP地址更换为主机的ip地址,如果是服务器则是外网ip地址

如果没有创建plugins文件夹,则将volumes中的plugins映射去掉

# 配置kafka集群
# container services下的每一个子配置都对应一个节点的docker container# 给kafka集群配置一个网络,网络名为kafka-net
networks:kafka-net:name: kafka-netdriver: bridgeservices:zookeeper-1:image: zookeepercontainer_name: zookeeperrestart: always# 配置docker container和宿主机的端口映射ports:- 2181:2181- 8081:8080# 将docker container上的路径挂载到宿主机上 实现宿主机和docker container的数据共享volumes:- "/home/learning-java/kafka/data/zookeeper-1/data:/data"- "/home/learning-java/kafka/data/zookeeper-1/datalog:/datalog"- "/home/learning-java/kafka/data/zookeeper-1/logs:/logs"- "/home/learning-java/kafka/data/zookeeper-1/conf:/conf"# 配置docker container的环境变量environment:# 当前zk实例的idZOO_MY_ID: 1# 整个zk集群的机器、端口列表ZOO_SERVERS: server.1=zookeeper-1:2888:3888 command: ["zkServer.sh", "start-foreground"]networks:kafka-net:aliases:- zookeeper-1kafka-1:image: wurstmeister/kafkacontainer_name: kafka-1restart: always# 配置docker container和宿主机的端口映射  8083端口是后期部署kafka connect所需要的端口ports:- 9092:9092- 8084:8083# plugins 是我方便加入kafka connector 依赖所设文件夹,不使用connect可以不设置# /opt/kafka/plugins 是配置connector的时候指定的容器内部文件夹路径volumes:- "/home/learning-java/kafka/data/kafkadata/kafka-1/server.properties:/etc/kafka/config/server.properties"- "/home/learning-java/kafka/data/kafkadata/kafka-1/logs:/kafka"- "/home/learning-java/kafka/data/kafkadata/plugins:/opt/kafka/plugins"# 配置docker container的环境变量environment:KAFKA_ADVERTISED_HOST_NAME: IP                   ## 修改:宿主机IPKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://IP:9092    ## 修改:宿主机IPKAFKA_ZOOKEEPER_CONNECT: "zookeeper-1:2181"KAFKA_ADVERTISED_PORT: 9092KAFKA_BROKER_ID: 1KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1depends_on:- zookeeper-1networks:kafka-net:aliases:- kafka-1kafka-2:image: wurstmeister/kafkacontainer_name: kafka-2restart: always# 配置docker container和宿主机的端口映射ports:- 9093:9092- 8085:8083volumes:- "/home/learning-java/kafka/data/kafkadata/kafka-2/server.properties:/etc/kafka/config/server.properties"- "/home/learning-java/kafka/data/kafkadata/kafka-2/logs:/kafka"- "/home/learning-java/kafka/data/kafkadata/plugins:/opt/kafka/plugins"# 配置docker container的环境变量environment:KAFKA_ADVERTISED_HOST_NAME: IP                   ## 修改:宿主机IPKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://IP:9093    ## 修改:宿主机IPKAFKA_ZOOKEEPER_CONNECT: "zookeeper-1:2181"KAFKA_ADVERTISED_PORT: 9093KAFKA_BROKER_ID: 2KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1depends_on:- zookeeper-1networks:kafka-net:aliases:- kafka-2kafka-3:image: wurstmeister/kafkacontainer_name: kafka-3restart: always# 配置docker container和宿主机的端口映射ports:- 9094:9092- 8086:8083volumes:- "/home/learning-java/kafka/data/kafkadata/kafka-3/server.properties:/etc/kafka/config/server.properties"- "/home/learning-java/kafka/data/kafkadata/kafka-3/logs:/kafka"- "/home/learning-java/kafka/data/kafkadata/plugins:/opt/kafka/plugins"# 配置docker container的环境变量environment:KAFKA_ADVERTISED_HOST_NAME: IP                   ## 修改:宿主机IPKAFKA_ADVERTISED_LISTENERS: PLAINTEXT://IP:9094    ## 修改:宿主机IPKAFKA_ZOOKEEPER_CONNECT: "zookeeper-1:2181"KAFKA_ADVERTISED_PORT: 9094KAFKA_BROKER_ID: 3KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1depends_on:- zookeeper-1networks:kafka-net:aliases:- kafka-3kafka-manager:image: sheepkiller/kafka-manager              ## 镜像:开源的web管理kafka集群的界面container_name: kafka-managerrestart: alwaysenvironment:ZK_HOSTS: IP:2181                  ## 修改:宿主机IPports:- "9002:9000"                               ## 暴露端口networks:kafka-net:aliases:- kafka-manager

 三 启动测试访问

启动

docker compose up -d

查看

docker ps

应该有四个容器正常运行 

如果出现哪个容器启动失败或者频繁重启,可能是docker compose文件的空格、中英文错误

或者进入容器日志查看具体错误

比如操作文件的权限没有设置会报错,就需要设置 chmod 777 一下

/docker-entrypoint.sh: line 43: /conf/zoo.cfg: Permission denied 

打开防火墙端口 

2181 是zk端口

8084 8085 8086 9092 9093 9094 kafka需要

9002 图形化界面需要

完成后访问图形化界面

点击cluster  add cluster

输入 zookeeper信息,点击save

 发现cluster中出现

点击 zookeeper-1 进入

 done


更新

上面的kafka manager无法看到具体消息内容

这里可以使用akhq来作为图形化管理界面

这里重写了一个docker compose 构建了一个kafka、zookeeper和一个akhq作为图形化管理工具

services:zookeeper:container_name: zookeeperimage: zookeeperports:- "2181:2181"environment:- ALLOW_ANONYMOUS_LOGIN=yesnetworks:- kafka-netvolumes:- /home/learning-java/kafka/zookeeper_data:/bitnami/zookeeperkafka-0:container_name: kafka-0hostname: kafka-0image: bitnami/kafka:3.2ports:- "9092:9092"- "9093:9093"environment:KAFKA_CFG_ZOOKEEPER_CONNECT: "zookeeper:2181"KAFKA_CFG_BROKER_ID: "0"KAFKA_ENABLE_KRAFT: "no" # 是否启用KRaftALLOW_PLAINTEXT_LISTENER: "yes"KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP: "INTERNAL:PLAINTEXT,EXTERNAL:PLAINTEXT"KAFKA_CFG_LISTENERS: "INTERNAL://:9092,EXTERNAL://0.0.0.0:9093"KAFKA_CFG_ADVERTISED_LISTENERS: "INTERNAL://kafka-0:9092,EXTERNAL://主机ip:9093"KAFKA_CFG_INTER_BROKER_LISTENER_NAME: "INTERNAL"KAFKA_HEAP_OPTS: "-Xms521M -Xmx521M"KAFKA_ZOOKEEPER_SESSION_TIMEOUT_MS: "30000"networks:- kafka-netvolumes:- /home/learning-java/kafka/kafka_0_data:/bitnami/kafkadepends_on:- zookeeperakhq:image: tchiotludo/akhqcontainer_name: akhqports:- "9002:8080"environment:AKHQ_SERVERS: "kafka-0:9092"AKHQ_ZOOKEEPER: "zookeeper:2181"volumes:- /home/learning-java/kafka/akhq-application.yaml:/app/application.ymlnetworks:- kafka-net volumes:zookeeper_data:driver: localkafka_0_data:driver: localnetworks:kafka-net:name: kafka-netdriver: bridge

目前需要一个application.yml额外提供给akhq,否则会报错找不到application.yml

akhq:connections:local:properties:bootstrap.servers: "kafka-0:9092"

完成后

还可以查看具体消息

四 额外

如果无法下载,则需要找到一个可以下载的电脑下载完成后上传

本地下载镜像

# --platform linux/amd64 指定拉去 linux/amd64的镜像
docker pull imagesname:version --platform linux/amd64

拉去完成后进行打包

# image.tar 压缩包名 imagename:version 拉取的镜像
docker save -o image.tar imagename:version

上传

# image.tar 打包的镜像压缩包 username:服务器用户名 host:服务器地址 后面为保持路径
scp image.tar username@host:/home/usr/

服务器上进行加载压缩包

docker load -i image.tar

接着,就得到了一个我们需要的镜像

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • ArduPilot开源代码之ROS2Humble+CartographerSLAM+SITL+Gazebo
  • reshape函数及MATLAB应用
  • sql查询优化小知识-01,非等值条件查询影响
  • Vue3基础语法
  • C#-了解ORM框架SqlSugar并快速使用(附工具)
  • c# 对接第三方接口实现签名
  • 记一次因敏感信息泄露而导致的越权+存储型XSS
  • 谷粒商城实战笔记-75-商品服务-API-品牌管理-品牌分类关联与级联更新
  • 微信小程序云开发订单微信支付与小票和标签打印的完整高效流程
  • 【C# 】Pipe管道通信使用
  • Java实现数据库图片上传(包含从数据库拿图片传递前端渲染)-图文详解
  • SSRF-labs-master靶场
  • FFmpeg研究
  • ai智能写作软件哪个好?高效写作少不了这5个
  • 大数据——Hive原理
  • 【391天】每日项目总结系列128(2018.03.03)
  • mysql 数据库四种事务隔离级别
  • open-falcon 开发笔记(一):从零开始搭建虚拟服务器和监测环境
  • vue--为什么data属性必须是一个函数
  • 分享一个自己写的基于canvas的原生js图片爆炸插件
  • 基于MaxCompute打造轻盈的人人车移动端数据平台
  • 使用common-codec进行md5加密
  • 世界上最简单的无等待算法(getAndIncrement)
  • 手机app有了短信验证码还有没必要有图片验证码?
  • 小程序开发之路(一)
  • 一些基于React、Vue、Node.js、MongoDB技术栈的实践项目
  • 【云吞铺子】性能抖动剖析(二)
  • JavaScript 新语法详解:Class 的私有属性与私有方法 ...
  • Mac 上flink的安装与启动
  • ​1:1公有云能力整体输出,腾讯云“七剑”下云端
  • # C++之functional库用法整理
  • #NOIP 2014#Day.2 T3 解方程
  • (ZT)出版业改革:该死的死,该生的生
  • (ZT)薛涌:谈贫说富
  • (超简单)使用vuepress搭建自己的博客并部署到github pages上
  • (函数)颠倒字符串顺序(C语言)
  • (六)激光线扫描-三维重建
  • (三)SvelteKit教程:layout 文件
  • (五)activiti-modeler 编辑器初步优化
  • (转)利用ant在Mac 下自动化打包签名Android程序
  • *上位机的定义
  • .a文件和.so文件
  • .class文件转换.java_从一个class文件深入理解Java字节码结构
  • .NET “底层”异步编程模式——异步编程模型(Asynchronous Programming Model,APM)...
  • .NET 4 并行(多核)“.NET研究”编程系列之二 从Task开始
  • .NET大文件上传知识整理
  • .net知识和学习方法系列(二十一)CLR-枚举
  • /etc/skel 目录作用
  • @ 代码随想录算法训练营第8周(C语言)|Day53(动态规划)
  • @staticmethod和@classmethod的作用与区别
  • [《百万宝贝》观后]To be or not to be?
  • [AX]AX2012 AIF(四):文档服务应用实例
  • [C/C++] -- 二叉树
  • [ERROR]-Error: failure: repodata/filelists.xml.gz from addons: [Errno 256] No more mirrors to try.
  • [IE技巧] 使IE8以单进程的模式运行