您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關如何進行kafka的安裝和使用,文章內(nèi)容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。
根據(jù)官網(wǎng)的介紹,ApacheKafka?是一個分布式流媒體平臺,它主要有3種功能:
1:It lets you publish and subscribe to streams of records.發(fā)布和訂閱消息流,這個功能類似于消息隊列,這也是kafka歸類為消息隊列框架的原因
2:It lets you store streams of records in a fault-tolerant way.以容錯的方式記錄消息流,kafka以文件的方式來存儲消息流
3:It lets you process streams of records as they occur.可以再消息發(fā)布的時候進行處理
1:Building real-time streaming data pipelines that reliably get data between systems or applications.在系統(tǒng)或應用程序之間構建可靠的用于傳輸實時數(shù)據(jù)的管道,消息隊列功能
2:Building real-time streaming applications that transform or react to the streams of data。構建實時的流數(shù)據(jù)處理程序來變換或處理數(shù)據(jù)流,數(shù)據(jù)處理功能
Kafka目前主要作為一個分布式的發(fā)布訂閱式的消息系統(tǒng)使用,下面簡單介紹一下kafka的基本機制
1.3.1 消息傳輸流程
Producer即生產(chǎn)者,向Kafka集群發(fā)送消息,在發(fā)送消息之前,會對消息進行分類,即Topic,上圖展示了兩個producer發(fā)送了分類為topic1的消息,另外一個發(fā)送了topic2的消息。
Topic即主題,通過對消息指定主題可以將消息分類,消費者可以只關注自己需要的Topic中的消息
Consumer即消費者,消費者通過與kafka集群建立長連接的方式,不斷地從集群中拉取消息,然后可以對這些消息進行處理。
從上圖中就可以看出同一個Topic下的消費者和生產(chǎn)者的數(shù)量并不是對應的。
1.3.2 kafka服務器消息存儲策略
談到kafka的存儲,就不得不提到分區(qū),即partitions,創(chuàng)建一個topic時,同時可以指定分區(qū)數(shù)目,分區(qū)數(shù)越多,其吞吐量也越大,但是需要的資源也越多,同時也會導致更高的不可用性,kafka在接收到生產(chǎn)者發(fā)送的消息之后,會根據(jù)均衡策略將消息存儲到不同的分區(qū)中。
在每個分區(qū)中,消息以順序存儲,最晚接收的的消息會最后被消費。
1.3.3 與生產(chǎn)者的交互
生產(chǎn)者在向kafka集群發(fā)送消息的時候,可以通過指定分區(qū)來發(fā)送到指定的分區(qū)中
也可以通過指定均衡策略來將消息發(fā)送到不同的分區(qū)中
如果不指定,就會采用默認的隨機均衡策略,將消息隨機的存儲到不同的分區(qū)中
1.3.4 與消費者的交互
在消費者消費消息時,kafka使用offset來記錄當前消費的位置
在kafka的設計中,可以有多個不同的group來同時消費同一個topic下的消息,如圖,我們有兩個不同的group同時消費,他們的的消費的記錄位置offset各不項目,不互相干擾。
對于一個group而言,消費者的數(shù)量不應該多余分區(qū)的數(shù)量,因為在一個group中,每個分區(qū)至多只能綁定到一個消費者上,即一個消費者可以消費多個分區(qū),一個分區(qū)只能給一個消費者消費
因此,若一個group中的消費者數(shù)量大于分區(qū)數(shù)量的話,多余的消費者將不會收到任何消息。
你可以在kafka官網(wǎng) http://kafka.apache.org/downloads下載到最新的kafka安裝包,選擇下載二進制版本的tgz文件,根據(jù)網(wǎng)絡狀態(tài)可能需要fq,這里我們選擇的版本是0.11.0.1,目前的最新版
Kafka是使用scala編寫的運行與jvm虛擬機上的程序,雖然也可以在windows上使用,但是kafka基本上是運行在linux服務器上,因此我們這里也使用linux來開始今天的實戰(zhàn)。
首先確保你的機器上安裝了jdk,kafka需要java運行環(huán)境,以前的kafka還需要zookeeper,新版的kafka已經(jīng)內(nèi)置了一個zookeeper環(huán)境,所以我們可以直接使用
說是安裝,如果只需要進行最簡單的嘗試的話我們只需要解壓到任意目錄即可,這里我們將kafka壓縮包解壓到/home目錄
在kafka解壓目錄下下有一個config的文件夾,里面放置的是我們的配置文件
consumer.properites 消費者配置,這個配置文件用于配置于2.5節(jié)中開啟的消費者,此處我們使用默認的即可
producer.properties 生產(chǎn)者配置,這個配置文件用于配置于2.5節(jié)中開啟的生產(chǎn)者,此處我們使用默認的即可
server.properties kafka服務器的配置,此配置文件用來配置kafka服務器,目前僅介紹幾個最基礎的配置
broker.id 申明當前kafka服務器在集群中的唯一ID,需配置為integer,并且集群中的每一個kafka服務器的id都應是唯一的,我們這里采用默認配置即可
listeners 申明此kafka服務器需要監(jiān)聽的端口號,如果是在本機上跑虛擬機運行可以不用配置本項,默認會使用localhost的地址,如果是在遠程服務器上運行則必須配置,例如:
listeners=PLAINTEXT:// 192.168.180.128:9092。并確保服務器的9092端口能夠訪問
3.zookeeper.connect 申明kafka所連接的zookeeper的地址 ,需配置為zookeeper的地址,由于本次使用的是kafka高版本中自帶zookeeper,使用默認配置即可
zookeeper.connect=localhost:2181
啟動zookeeper
cd進入kafka解壓目錄,輸入
bin/zookeeper-server-start.sh config/zookeeper.properties &
啟動zookeeper成功后會看到如下的輸出
2.啟動kafka
cd進入kafka解壓目錄,輸入
bin/kafka-server-start.sh config/server.properties
啟動kafka成功后會看到如下的輸出
2.5.1 創(chuàng)建一個topic
Kafka通過topic對同一類的數(shù)據(jù)進行管理,同一類的數(shù)據(jù)使用同一個topic可以在處理數(shù)據(jù)時更加的便捷
在kafka解壓目錄打開終端,輸入
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
創(chuàng)建一個名為test的topic
在創(chuàng)建topic后可以通過輸入
bin/kafka-topics.sh --list --zookeeper localhost:2181
來查看已經(jīng)創(chuàng)建的topic
2.4.2 創(chuàng)建一個消息消費者
在kafka解壓目錄打開終端,輸入(from-beginning每次都是從頭消費,不想從頭消費可以取消參數(shù))
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
可以創(chuàng)建一個用于消費topic為test的消費者
消費者創(chuàng)建完成之后,因為還沒有發(fā)送任何數(shù)據(jù),因此這里在執(zhí)行后沒有打印出任何數(shù)據(jù)
不過別著急,不要關閉這個終端,打開一個新的終端,接下來我們創(chuàng)建第一個消息生產(chǎn)者
2.4.3 創(chuàng)建一個消息生產(chǎn)者
在kafka解壓目錄打開一個新的終端,輸入
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
在執(zhí)行完畢后會進入的編輯器頁面
在發(fā)送完消息之后,可以回到我們的消息消費者終端中,可以看到,終端中已經(jīng)打印出了我們剛才發(fā)送的消息
Python偽代碼版本
消費者
[root@ip-10-1-2-175 sh]# more cus.py
import time, json
from pykafka import KafkaClient
client = KafkaClient(hosts="10.1.2.175:9092") # 可接受多個Client這是重點
topic = client.topics['test'] # 選擇一個topic
# 生成一個消費者
balanced_consumer = topic.get_balanced_consumer(consumer_group='goods_group',auto_commit_enable=True,zookeeper_connect='localhost:2181')
for message in balanced_consumer:
print message
生產(chǎn)者
[root@ip-10-1-2-175 sh]# more prod.py
import time, json
from pykafka import KafkaClient
def pro():
client = KafkaClient(hosts="10.1.2.175:9092")
topic = client.topics['test'] # 選擇一個topic
producer = topic.get_producer() # 創(chuàng)建一個生產(chǎn)者
goods_dict = {'option_type':'insert','option_obj':{'goods_name':'goods-1'} }
goods_json = json.dumps(goods_dict)
producer.produce(goods_json) # 生產(chǎn)消息
producer.stop()
if __name__ == '__main__':
pro()
啟動消費者
[root@ip-10-1-2-175 sh]# python cus.py
啟動生產(chǎn)者
[root@ip-10-1-2-175 sh]# python prod.py
查看消費者
[root@ip-10-1-2-175 sh]# python cus.py
關于如何進行kafka的安裝和使用就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。