irpas技术客

Spark——Linux环境下 Kafka集群的安装与配置_连胜是我偶像_linux安装kafka集群

irpas 2467

目录

1. 下载 解压 安装 Kafka安装包

?2. 修改Kafka配置文件

3. 添加环境变量

?4. 分发文件

?5. 修改hadoop02、hadoop03的配置文件


1. 下载 解压 安装 Kafka安装包

下载地址: Apache Kafka

在hadoop01中

输入:cd /export/software/

输入:rz -E

选择Kafka安装包

打开并上传,输入ls查看,第一行第二个是Kafka

解压安装包到 /export/servers

?输入:tar -zxvf kafka_2.11-2.0.0.tgz -C /export/servers/

验证安装

输入:cd /export/servers/

输入:ls

?2. 修改Kafka配置文件

输入:cd /export/servers/kafka_2.11-2.0.0/config/

输入:vi server.properties

?输入:显示行号

:set nu

server.properties文件内部更改如下

21行:broker.id=0

31行(外部访问端口):listeners=PLAINTEXT://hadoop01:9092 60行:log.dirs=/export/data/kafka/

123行:?zookeeper.connect=hadoop01:2181,hadoop02:2181,hadoop03:2181

139行:host.name=hadoop01?

3. 添加环境变量

为了操作方便,在/etc/profile文件添加Kafka环境变量

输入:vi /etc/profile

输入:

export KAFKA_HOME=/export/servers/kafka_2.11-2.0.0 export PATH=$PATH:$KAFKA_HOME/bin

?4. 分发文件

输入:?cd /export/servers/

输入:scp -r kafka_2.11-2.0.0/ hadoop02:/export/servers/

输入:scp -r kafka_2.11-2.0.0/ hadoop03:/export/servers/

输入:scp /etc/profile hadoop02:/etc/profile

输入:scp /etc/profile hadoop03:/etc/profile

hadoop02、hadoop03中,输入:source /etc/profile

?

?5. 修改hadoop02、hadoop03的配置文件

?hadoop02中,

输入:cd /export/servers/kafka_2.11-2.0.0/config/

输入:vi server.properties

server.properties文件内部更改如下

21行:broker.id=1

31行(外部访问端口):listeners=PLAINTEXT://hadoop02:9092

139行:host.name=hadoop02

?hadoop03中, (跟hadoop02差不多的操作)

输入:cd /export/servers/kafka_2.11-2.0.0/config/

输入:vi server.properties

server.properties文件内部更改如下

21行:broker.id=2

31行(外部访问端口):listeners=PLAINTEXT://hadoop03:9092

139行:host.name=hadoop03


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #linux安装kafka集群 #1 #下载 #解压 #安装 #Kafka安装包下载地址 #apache