您好,登錄后才能下訂單哦!
這篇文章主要講解了“flink1.12怎么通過kerberos認證讀取kafka數據”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“flink1.12怎么通過kerberos認證讀取kafka數據”吧!
一般我們在使用kafka的時候很少經過kerberos認證,通過flink消費kafka數據的時候相對比較容易,一般很容易測通。
但是如果kafka有kerberos的認證,相對比較麻煩,結合官網進行說明。
https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/connectors/datastream/kafka/
主要就是說明需要配置flink-conf.yml以及kafka的配置。
這里面涉及三個文件user.keytab、jaas.conf和krb5.conf文件。把這個配置文件配置好后在設置kafka的屬性就可以了。
kafka的屬性如下:
props.put("security.protocol", "SASL_PLAINTEXT");
props.put("sasl.mechanism", "GSSAPI");
props.put("sasl.kerberos.service.name", "kafka");
以上配置好,flink就可以提交任務進行kafka的消費了。
感謝各位的閱讀,以上就是“flink1.12怎么通過kerberos認證讀取kafka數據”的內容了,經過本文的學習后,相信大家對flink1.12怎么通過kerberos認證讀取kafka數據這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。