您好,登錄后才能下訂單哦!
這篇文章主要講解了“flink1.12怎么通過(guò)kerberos認(rèn)證讀取kafka數(shù)據(jù)”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“flink1.12怎么通過(guò)kerberos認(rèn)證讀取kafka數(shù)據(jù)”吧!
一般我們?cè)谑褂胟afka的時(shí)候很少經(jīng)過(guò)kerberos認(rèn)證,通過(guò)flink消費(fèi)kafka數(shù)據(jù)的時(shí)候相對(duì)比較容易,一般很容易測(cè)通。
但是如果kafka有kerberos的認(rèn)證,相對(duì)比較麻煩,結(jié)合官網(wǎng)進(jìn)行說(shuō)明。
https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/connectors/datastream/kafka/
主要就是說(shuō)明需要配置flink-conf.yml以及kafka的配置。
這里面涉及三個(gè)文件user.keytab、jaas.conf和krb5.conf文件。把這個(gè)配置文件配置好后在設(shè)置kafka的屬性就可以了。
kafka的屬性如下:
props.put("security.protocol", "SASL_PLAINTEXT");
props.put("sasl.mechanism", "GSSAPI");
props.put("sasl.kerberos.service.name", "kafka");
以上配置好,flink就可以提交任務(wù)進(jìn)行kafka的消費(fèi)了。
感謝各位的閱讀,以上就是“flink1.12怎么通過(guò)kerberos認(rèn)證讀取kafka數(shù)據(jù)”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)flink1.12怎么通過(guò)kerberos認(rèn)證讀取kafka數(shù)據(jù)這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。