溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Spark與Kafka在Ubuntu的實時流處理

發(fā)布時間:2024-10-21 16:10:37 來源:億速云 閱讀:78 作者:小樊 欄目:云計算

Apache Spark 和 Apache Kafka 是兩個在實時流處理領(lǐng)域非常受歡迎的開源框架。它們可以一起使用,以實現(xiàn)高效、可擴展的實時數(shù)據(jù)處理和分析。以下是在 Ubuntu 上安裝和配置 Spark 和 Kafka 以進行實時流處理的簡要步驟:

1. 安裝 Java 開發(fā)工具包 (JDK)

Spark 需要 JDK 運行。你可以通過以下命令安裝 OpenJDK 11:

sudo apt update
sudo apt install openjdk-11-jdk

驗證 JDK 安裝成功:

java -version

2. 下載并安裝 Apache Kafka

從 Kafka 官方網(wǎng)站下載最新版本的 Kafka:

wget https://downloads.apache.org/kafka/2.8.1/kafka_2.13-2.8.1.tgz
tar xzf kafka_2.13-2.8.1.tgz
cd kafka_2.13-2.8.1

接下來,啟動 Kafka 服務(wù)器

bin/zookeeper-server-start.sh config/zookeeper.properties
bin/kafka-server-start.sh config/server.properties

創(chuàng)建一個測試主題:

bin/kafka-topics.sh --create --topic test --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1

向 Kafka 發(fā)送和消費消息:

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

3. 下載并安裝 Apache Spark

從 Spark 官方網(wǎng)站下載最新版本的 Spark:

wget https://downloads.apache.org/spark/spark-3.2.1/spark-3.2.1-bin-hadoop3.2.tgz
tar xzf spark-3.2.1-bin-hadoop3.2.tgz
cd spark-3.2.1-bin-hadoop3.2

配置 Spark 環(huán)境變量:

echo "export SPARK_HOME=/path/to/spark-3.2.1-bin-hadoop3.2" >> ~/.bashrc
source ~/.bashrc
echo "export PATH=$PATH:$SPARK_HOME/bin" >> ~/.bashrc
source ~/.bashrc

4. 使用 Spark Streaming 讀取 Kafka 數(shù)據(jù)

創(chuàng)建一個 Python 腳本(例如 spark_kafka_streaming.py),并使用以下代碼讀取 Kafka 數(shù)據(jù):

from pyspark.sql import SparkSession
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils

# 創(chuàng)建 SparkSession 和 StreamingContext
spark = SparkSession.builder \
    .appName("Kafka Spark Streaming") \
    .getOrCreate()

ssc = StreamingContext(spark.sparkContext, 1)

# 從 Kafka 讀取數(shù)據(jù)
kafkaStream = KafkaUtils.createDirectStream(ssc, ["test"], {"metadata.broker.list": "localhost:9092"})

# 處理 Kafka 數(shù)據(jù)
def process_message(time, rdd):
    if not rdd.isEmpty():
        print("Received message: %s" % rdd.collect()[0][1])

kafkaStream.foreachRDD(process_message)

# 啟動 StreamingContext
ssc.start()
ssc.awaitTermination()

運行 Spark 應(yīng)用程序:

spark-submit spark_kafka_streaming.py

現(xiàn)在,當(dāng)你向 Kafka 發(fā)送消息時,Spark Streaming 應(yīng)用程序?qū)崟r讀取并處理這些消息。

請注意,這只是一個簡單的示例,實際應(yīng)用中可能需要更復(fù)雜的邏輯和配置。你可以查閱 Spark 和 Kafka 的官方文檔以獲取更多詳細信息和最佳實踐。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI