您好,登錄后才能下訂單哦!
這篇文章主要講解了“SpringBoot Kafka 整合的使用方法”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“SpringBoot Kafka 整合的使用方法”吧!
使用 IDEA 創(chuàng)建 SpringBoot 項(xiàng)目,這個(gè)很簡單了,這里不做過多的講解。
1、pom 文件代碼如下:
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.zhisheng</groupId> <artifactId>kafka-learning</artifactId> <version>0.0.1-SNAPSHOT</version> <packaging>jar</packaging> <name>kafka-learning</name> <description>Demo project for Spring Boot + kafka</description> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>1.5.9.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding> <java.version>1.8</java.version> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>1.1.1.RELEASE</version> </dependency> <dependency> <groupId>com.google.code.gson</groupId> <artifactId>gson</artifactId> <version>2.8.2</version> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> </project>
主要引入了 spring-kafka 、lombok 、 gson 依賴。
2、消息實(shí)體類 Message.java 如下:
@Datapublic class Message { private Long id; //id private String msg; //消息 private Date sendTime; //時(shí)間戳 }
3、消息發(fā)送類 KafkaSender.java
@Component @Slf4jpublic class KafkaSender { @Autowired private KafkaTemplate<String, String> kafkaTemplate; private Gson gson = new GsonBuilder().create(); //發(fā)送消息方法 public void send() { Message message = new Message(); message.setId(System .currentTimeMillis()); message.setMsg(UUID.randomUUID().toString()); message.setSendTime(new Date()) ; log.info("+++++++++++++++++++++ message = {}", gson.toJson(message)); kafkaTemplate.send ("zhisheng", gson.toJson(message)); } }
就這樣,發(fā)送消息代碼就實(shí)現(xiàn)了。
這里關(guān)鍵的代碼為 kafkaTemplate.send()
方法, zhisheng
是 Kafka 里的 topic ,這個(gè) topic 在 Java 程序中是不需要提前在 Kafka 中設(shè)置的,因?yàn)樗鼤?huì)在發(fā)送的時(shí)候自動(dòng)創(chuàng)建你設(shè)置的 topic, gson.toJson(message)
是消息內(nèi)容,這里暫時(shí)先說這么多了,不詳解了,后面有機(jī)會(huì)繼續(xù)把里面源碼解讀寫篇博客出來(因?yàn)橹型九龅娇樱献痈藥妆樵创a)。
4、消息接收類 KafkaReceiver.java
@Component @Slf4jpublic class KafkaReceiver { @KafkaListener(topics = {"zhisheng"}) public void listen(ConsumerRecord<?, ?> record) { Optional<?> kafkaMessage = Optional.ofNullable(record.value()); if (kafkaMessage.isPresent()) { Object message = kafkaMessage.get(); log.info("----------------- record =" + record); log.info("------------------ message =" + message); } } }
客戶端 consumer 接收消息特別簡單,直接用 @KafkaListener
注解即可,并在監(jiān)聽中設(shè)置監(jiān)聽的 topic
, topics
是一個(gè)數(shù)組所以是可以綁定多個(gè)主題的,上面的代碼中修改為 @KafkaListener(topics={"zhisheng","tian"})
就可以同時(shí)監(jiān)聽兩個(gè) topic
的消息了。需要注意的是:這里的 topic 需要和消息發(fā)送類 KafkaSender.java 中設(shè)置的 topic 一致。
5、啟動(dòng)類 KafkaApplication.java
@SpringBootApplicationpublic class KafkaApplication { public static void main(String[] args) { ConfigurableApplicationContext context = SpringApplication.run(KafkaApplication.class, args); KafkaSender sender = context.getBean(KafkaSender.class); for (int i = 0; i < 3; i++) { //調(diào)用消息發(fā)送類中的消息發(fā)送方法 sender.send(); try { Thread.sleep(3000); } catch (InterruptedException e) { e.printStackTrace(); } } } }
6、配置文件 application.properties
#============== kafka ===================# 指定kafka 代理地址,可以多個(gè) spring.kafka.bootstrap-servers=192.168.153.135:9092 ##=============== provider ======================= #spring.kafka.producer.retries=0# 每次批量發(fā)送消息的數(shù)量 spring.kafka.producer.batch-size=16384spring.kafka.producer.buffer-memory=33554432 ## 指定消息key和消息體的編解碼方式 spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer ##=============== consumer =======================# 指定默認(rèn)消費(fèi)者group id spring.kafka.consumer.group-id=test-consumer-group spring.kafka.consumer.auto-offset-reset=earliest spring.kafka.consumer.enable-auto-commit=true spring.kafka.consumer.auto-commit-interval=100 ## 指定消息key和消息體的編解碼方式 spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.bootstrap-servers 后面設(shè)置你安裝的 Kafka 的機(jī)器 IP 地址和端口號(hào) 9092。
如果你只是簡單整合下,其他的幾個(gè)默認(rèn)就好了。
在你安裝的 Kafka 目錄文件下:
使用安裝包中的腳本啟動(dòng)單節(jié)點(diǎn) Zookeeper 實(shí)例:
bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
使用 kafka-server-start.sh
啟動(dòng) kafka 服務(wù):
bin/kafka-server-start.sh config/server.properties
啟動(dòng)成功后!
千萬注意:記得將你的虛擬機(jī)或者服務(wù)器關(guān)閉防火墻或者開啟 Kafka 的端口 9092。
出現(xiàn)這就代表整合成功了!
我們看下 Kafka 中的 topic 列表就
bin/kafka-topics.sh --list --zookeeper localhost:2181
就會(huì)發(fā)現(xiàn)剛才我們程序中的 zhisheng
已經(jīng)自己創(chuàng)建了。
感謝各位的閱讀,以上就是“SpringBoot Kafka 整合的使用方法”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對(duì)SpringBoot Kafka 整合的使用方法這一問題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。