下载好kafka安装包后,将其解压到指定目录下(例如/usr/local目录下),删除压缩包。
示例将搭建三个节点作为kafka集群,分别是10.183.157.212,10.183.156.159,10.183.151.113。
修改kafka启动内存
Vi kafka-server-start.sh
修改export KAFKA_HEAP_OPTS="-Xmx4G -Xms1G"
首先建立zookeeper集群,编辑zookeeper.properties,三个机器上的zookeeper.properties文件配置相同,需要注意的是日志保存路径dataLogDir不会自动生成,需要自己手动建立相关的路径。dataDir目录,为zookeeper目录,也需要手动进行创建。
创建myid文件,进入步骤5中创建的dataDir目录,创建myid文件,myid是zk集群用来发现彼此的标识,必须创建,且不能相同。将三个服务器上的myid文件分别写入1,2,3,对应步骤6中的server.1、server.2、server.3,如图:
进入kafka的bin目录执行启动zookeeper命令:sh zookeeper-server-start.sh /usr/local/kafka_2.11-0.10.1.1/bin/zookeeper.properties &,三台机器都执行启动命令,没有报错就说明zookeeper集群启动成功了。
搭建kafka集群,修改server.properties配置文件,server.properties配置文件的修改主要在开头和结尾,中间保持默认配置即可;需要注意的点是broker.id的值三个节点要配置不同的值,分别配置为0,1,2;log.dirs必须保证目录存在,不会根据配置文件自动生成。,需要修改的配置项如下:
#非负整数,用于唯一标识broker,每个节点要配置不同的值
broker.id=0
#broker接收连接请求的端口
port 9091
#broker 处理消息的最大线程数
num.network.threads=32
#broker处理磁盘IO 的线程数 ,数值应该大于你的硬盘数
num.io.threads=8
#kafka持久化数据存储的路径,可以指定多个,以逗号分隔
log.dirs=/tmp/kafka-logs
#每个topic的分区个数,若是在topic创建时候没有指定的话 会被topic创建时的指定参数覆盖
num.partitions=18
#数据存储的最大时间 超过这个时间 会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据
log.retention.hours=48
zookeeper.connect=10.183.157.212:2181,10.183.156.159:2181, 10.183.151.113:2181
启动kafka集群,进入kafka的bin目录,执行如下命令 :
sh kafka-server-start.sh -daemon ../config/server.properties &
三个节点均要启动;启动无报错,即搭建成功,可以生产和消费消息,来检测是否搭建成功。
Kafka常用命令介绍
(均需要进入kafka的bin目录下执行)
列举topic
sh kafka-topics.sh --zookeeper 10.183.157.212:2181,10.183.156.159:2181,10.183.151.113:2181 --list
更多精彩干货分享
点击下方名片关注
IT那活儿
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/129915.html
摘要:所以此次优先选择这个镜像作服务的基础。由于的基于集群的高可用特性是建基于称之上的,因此构建可用的镜像,是需要依赖于基础的。构建建立一个多个组合的服务,需要独立的文件。 0 前言 Kafka作为近几年十分流行,虽然它自己定位为一个分布式流结构平台distributed streaming platform,但是我们大部分时间还是当做是一个MQ来使用:P。 刚好最近也在研究Kafka,需要...
阅读 1249·2023-01-11 13:20
阅读 1557·2023-01-11 13:20
阅读 1011·2023-01-11 13:20
阅读 1680·2023-01-11 13:20
阅读 3971·2023-01-11 13:20
阅读 2518·2023-01-11 13:20
阅读 1310·2023-01-11 13:20
阅读 3485·2023-01-11 13:20