溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

CentOS7系統(tǒng)下 Kafka安裝方法

發(fā)布時間:2020-03-03 01:13:42 來源:網(wǎng)絡(luò) 閱讀:7479 作者:wx5d40f0a9291c2 欄目:開發(fā)技術(shù)

介紹
Kafka是分布式發(fā)布-訂閱消息系統(tǒng),最初由LinkedIn公司開發(fā),之后成為之后成為Apache基金會的一部分,由Scala和Java編寫。Kafka是一種快速、可擴展的、設(shè)計內(nèi)在就是分布式的,分區(qū)的和可復制的提交日志服務(wù)。

它與傳統(tǒng)系統(tǒng)相比,有以下不同:

它被設(shè)計為一個分布式系統(tǒng),易于向外擴展;
它同時為發(fā)布和訂閱提供高吞吐量;
它支持多訂閱者,當失敗時能自動平衡消費者;
它將消息持久化到磁盤,因此可用于批量消費,例如ETL,以及實時應(yīng)用程序。
基礎(chǔ)概念
Broker:Kafka集群包含一個或多個服務(wù)器,這些服務(wù)器就是Broker
Topic:每條發(fā)布到Kafka集群的消息都必須有一個Topic
Partition:是物理概念上的分區(qū),為了提供系統(tǒng)吞吐率,在物理上每個Topic會分成一個或多個Partition,每個Partition對應(yīng)一個文件夾
Producer:消息產(chǎn)生者,負責生產(chǎn)消息并發(fā)送到Kafka Broker
Consumer:消息消費者,向kafka broker讀取消息并處理的客戶端。
Consumer Group:每個Consumer屬于一個特定的組,組可以用來實現(xiàn)一條消息被組內(nèi)多個成員消費等功能。
安裝kakfka
從官網(wǎng)下載Kafka安裝包,解壓安裝,或直接使用命令下載。

`wget http://mirror.bit.edu.cn/apache/kafka/1.0.0/kafka_2.11-1.0.0.tgz``

解壓安裝


tar -zvxf kafka_2.11-1.0.0.tgz -C /usr/local/
d /usr/local/kafka_2.11-1.0.0/

修改配置文件

vim config/server.properties

修改其中

broker.id=1
log.dirs=data/kafka-logs

功能驗證
啟動zookeeper
使用安裝包中的腳本啟動單節(jié)點Zookeeper實例:


bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

啟動Kafka服務(wù)
使用kafka-server-start.sh啟動kafka服務(wù):

bin/kafka-server-start.sh config/server.properties

創(chuàng)建Topic
使用kafka-topics.sh 創(chuàng)建但分區(qū)單副本的topic test


bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

查看Topic

bin/kafka-topics.sh --list --zookeeper localhost:2181

產(chǎn)生消息
使用kafka-console-producer.sh 發(fā)送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 

消費消息
使用kafka-console-consumer.sh 接收消息并在終端打印


bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

刪除Topic

bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test

查看描述 Topic 信息

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

第一行給出了所有分區(qū)的摘要,每個附加行給出了關(guān)于一個分區(qū)的信息。 由于我們只有一個分區(qū),所以只有一行。

“Leader”: 是負責給定分區(qū)的所有讀取和寫入的節(jié)點。 每個節(jié)點將成為分區(qū)隨機選擇部分的領(lǐng)導者。

“Replicas”: 是復制此分區(qū)日志的節(jié)點列表,無論它們是否是領(lǐng)導者,或者即使他們當前處于活動狀態(tài)。

“Isr”: 是一組“同步”副本。這是復制品列表的子集,當前活著并被引導到領(lǐng)導者。

集群配置
Kafka支持兩種模式的集群搭建:

單機多broker集群配置;
多機多broker集群配置。
單機多breoker
利用單節(jié)點部署多個broker。不同的broker不同的id,監(jiān)聽端口以及日志目錄,如:

將配置文件復制兩份

cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties 

修改配置文件信息
vim config/server-1.properties
#修改內(nèi)容

broker.id=2
listeners=PLAINTEXT://your.host.name:9093
log.dirs=/data/kafka-logs-1

vim config/server-2.properties
#修改內(nèi)容

broker.id=3
listeners=PLAINTEXT://your.host.name:9094
log.dirs=/data/kafka-logs-2

啟動多個kafka服務(wù)

in/kafka-server-start.sh config/server-1.properties 

bin/kafka-server-start.sh config/server-2.properties 

最后按照上面方法產(chǎn)生和消費信息。
多機多broker
分別在多個節(jié)點按上述方式安裝Kafka,配置啟動多個Zookeeper 實例。如:192.168.18.130、192.168.18.131、192.168.18.132三臺機器

分別配置多個機器上的Kafka服務(wù) 設(shè)置不同的broke id,zookeeper.connect設(shè)置如下:

zookeeper.connect=192.168.18.130:2181,192.168.18.131:2181,192.168.18.132:2181
向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI