kafka集群搭建&zookeeper集群搭建

kafka集群搭建&zookeeper集群搭建1.安装准备jdk-8u162-linux-x64.tarzookeeper-3.4.12.tar.gzkafka_2.11-2.0.0.tgz2.准备至少三台虚拟机192.168.196.128192.168.196.131192.168.196.1323.Java环境安装(略…自行百度)4.搭建zookeeper集群在每台主机下执行以下步骤:移动至/usr/local下:mvzookeeper-3.4.12.tar.gz/usr/local解压,重命名:tar-z

大家好,又见面了,我是你们的朋友全栈君。

1.安装准备
jdk-8u162-linux-x64.tar
zookeeper-3.4.12.tar.gz
kafka_2.11-2.0.0 .tgz

2.准备至少三台虚拟机
192.168.196.128
192.168.196.131
192.168.196.132

3.Java环境安装
(略…自行百度)

4.搭建zookeeper集群
在每台主机下执行以下步骤:

移动至/usr/local下:

mv zookeeper-3.4.12.tar.gz /usr/local

解压,重命名:

tar -zxvf zookeeper-3.4.12.tar.gz
mv zookeeper-3.4.12 zookeeper

配置环境变量:

vim /etc/profile

追加以下内容:

#set zookeeper environment
export ZK_HOME=/usr/local/zookeeper
export PATH=$ZK_HOME/bin:$PATH

保存文件后,使修改生效:

source /etc/profile

打开zookeeper配置文件:

cp /usr/local/zookeeper/conf/zoo_sample.cfg /usr/local/zookeeper/conf/zoo.cfg
vim /usr/local/zookeeper/zoo.cfg

修改zookeeper配置文件:

#修改数据文件夹路径
dataDir=/usr/local/zookeeper/data
#在文件末尾添加
server.1=192.168.196.128:2888:3888
server.2=192.168.196.131:2888:3888
server.3=192.168.196.132:2888:3888

创建数据文件夹和myid文件:

mkdir /usr/local/zookeeper/data
touch /usr/local/zookeeper/data/myid

分别在各个机器添加myid信息:

echo "1" > /usr/local/zookeeper/data/myid #kafka-1 192.168.196.128
echo "2" > /usr/local/zookeeper/data/myid #kafka-1 192.168.196.131
echo "3" > /usr/local/zookeeper/data/myid #kafka-1 192.168.196.132

分别在各个机器启动zookeeper:

/usr/local/zookeeper/bin/zkServer.sh start

全部启动后查看状态:

 /usr/local/zookeeper/bin/zkServer.sh status

显示如下则zookeeper集群搭建成功:
在这里插入图片描述在这里插入图片描述在这里插入图片描述
5.搭建kafka集群
在每台主机下执行以下步骤:
移动至/usr/local下:

mv kafka_2.11-2.0.0 .tgz /usr/local

解压,重命名:

tar -zxvf kafka_2.11-2.0.0 .tgz
mv kafka_2.11-2.0.0 kafka

配置环境变量:

vim /etc/profile

追加以下内容:

#set kafka environment
export KAFKA_HOME=/usr/local/kafka
export PATH=${KAFKA_HOME}/bin:$PATH

保存文件后,使修改生效:

source /etc/profile

修改server.properties配置文件:

vim /usr/local/kafka/config/server.properties

在kafka-1主机中:

#修改
broker.id=1
listeners=PLAINTEXT://192.168.196.128:9092
zookeeper.connect=192.168.196.128:2181,192.168.196.131:2181,192.168.196.132:2181
offsets.topic.replication.factor=3

在kafka-2主机中:

#修改
broker.id=2
listeners=PLAINTEXT://192.168.196.131:9092
zookeeper.connect=192.168.196.128:2181,192.168.196.131:2181,192.168.196.132:2181
offsets.topic.replication.factor=3

在kafka-3主机中:

#修改
broker.id=3
listeners=PLAINTEXT://192.168.196.132:9092
zookeeper.connect=192.168.196.128:2181,192.168.196.131:2181,192.168.196.132:2181
offsets.topic.replication.factor=3

在每台机器上分别启动kafka

/usr/local/kafka/bin/kafka-server-start.sh -daemon config/server.properties

(测试)在其中一台机器上创建topic:

/usr/local/kafka/bin/kafka-topics.sh --create --zookeeper 192.168.196.128:2181,192.168.196.131:2181,192.168.196.132:2181 --replication-factor 3 --partitions 3 --topic test-topic

(测试)查看创建的topic信息:

/usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper 192.168.196.128:2181,192.168.196.131:2181,192.168.196.132:2181 --topic test-topic

(测试)选其中一台机器创建生产者:

bin/kafka-console-producer.sh --broker-list 192.168.196.128:9092 -topic test-topic

(测试)另外两台机器创建消费者:

bin/kafka-console-consumer.sh --bootstrap-server 192.168.196.128:9092,192.168.196.131:9092,192.168.196.132:9092 --topic test-topic2 --from-beginning

尝试发送消息,收到则部署成功!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/134087.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • Multisim使用教程_ppt2016零基础入门教程

    Multisim使用教程_ppt2016零基础入门教程Multisim软件使用详细教程(图文全解)目录一、Multisim作用二、Multisim14.0的界面1.设计窗口2.菜单栏3.工具栏4.元器件栏和仪器仪表栏三、元器件5.元器件-基本器件6.元器件-电解电容7.元器件-开关开关-修改快捷键8.元器件-电位器调节电位器-第一种方法调节电位器-第二种方法调节电位器-修改调节精度电位器-修改快捷键修改电阻、电位器的阻值修改电容、电解电容的电容量9.元器件-二极管和稳压二极管……

  • Set集合实现有序

    Set集合实现有序今天面试问到Set集合实现有序的问题,发现集合这部分知识要补一补…. 以下所有api描述来源:https://docs.oracle.com/javase/7/docs/api/实现Set接口的类如下,其中最常见的HashSet和TreeSet。InterfaceSet<E>AllKnownImplementingClasses:AbstractSet, Concurren…

  • Pytorch和Torchvision版本对应

    Pytorch和Torchvision版本对应IrecommendAnacondaasPythonpackagemanagementsystem.Pleaserefertopytorch.orgforthedetailofPyTorch(torch)installation.ThefollowingisthecorrespondingtorchvisionversionsandsupportedPythonversions:

  • TKmybatis的框架介绍及使用方法

    最近项目使用了SpringBoot+TKMytis框架,期间遇到一些问题,顺便记一下。一、框架配置配置的话非常简单,我用的是SpringBoot,直接引入:<dependency><groupId>tk.mybatis</groupId><artifactId>mapper-spring-boot-starter&l…

  • Redis内存满了的几种解决方法(内存淘汰策略与Redis集群)

    Redis内存满了的几种解决方法(内存淘汰策略与Redis集群)

  • Hive数据存储结构「建议收藏」

    Hive数据存储:  Hive没有专门的数据存储格式,也没有为数据建立索引,用户可以自由组织Hive中的表,只需要在创建表的时候告诉Hive数据中的分隔符(列分隔和行分隔),Hive就可以解析数据。  hive的数据都存储在HDFS,我们这地方讲的存储主要只Hive中的数据模型存储。Hive中的数据模型主要由:数据库(Database)、表((table)内部表table、外部

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号