91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何理解Apache Flink CDC原理與使用

發布時間:2021-11-23 10:28:58 來源:億速云 閱讀:446 作者:柒染 欄目:大數據

如何理解Apache Flink CDC原理與使用,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

CDC (Change Data Capture)

Flink在1.11版本中新增了CDC的特性,簡稱 改變數據捕獲。名稱來看有點亂,我們先從之前的數據架構來看CDC的內容。如何理解Apache Flink CDC原理與使用

以上是之前的mysql binlog日志處理流程,例如canal監聽binlog把日志寫入到kafka中。而Apache Flink實時消費Kakfa的數據實現mysql數據的同步或其他內容等。拆分來說整體上可以分為以下幾個階段。

  1. mysql開啟binlog
  2. canal同步binlog數據寫入到kafka
  3. flink讀取kakfa中的binlog數據進行相關的業務處理。

整體的處理鏈路較長,需要用到的組件也比較多。Apache Flink CDC可以直接從數據庫獲取到binlog供下游進行業務計算分析。簡單來說鏈路會變成這樣如何理解Apache Flink CDC原理與使用也就是說數據不再通過canal與kafka進行同步,而flink直接進行處理mysql的數據。節省了canal與kafka的過程。

Flink 1.11中實現了mysql-cdc與postgre-CDC,也就是說在Flink 1.11中我們可以直接通過Flink來直接消費mysql,postgresql的數據進行業務的處理。

 
使用場景
  • 數據庫數據的增量同步
  • 數據庫表之上的物理化視圖
  • 維表join
  • 其他業務處理
  • ...
 
MySQL CDC 操作實踐

首先需要保證mysql數據庫開啟了binlog。未開啟請查閱相關資料進行binlog的啟用。自建默認是不開啟binlog的。

  1. 源表
DROP TABLE IF EXISTS `t_test`;
CREATE TABLE `t_test` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `ip` varchar(255) DEFAULT NULL,
  `size` bigint(20) DEFAULT NULL
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=183 DEFAULT CHARSET=utf8mb4;
 
  1. 添加mysql-cdc相關依賴
<dependency>
  <groupId>com.alibaba.ververica</groupId>
  <artifactId>flink-connector-mysql-cdc</artifactId>
  <version>1.1.0</version>
  <scope>compile</scope>
</dependency>
 
  1. 相關代碼實現
def main(args: Array[String]): Unit = {

    val envSetting = EnvironmentSettings.newInstance()
      .useBlinkPlanner()
      .inStreamingMode()
      .build()

    val env = StreamExecutionEnvironment.getExecutionEnvironment

    val tableEnv = StreamTableEnvironment.create(env, envSetting)
    val sourceDDL =
      "CREATE TABLE test_binlog (" +
      "   id INT NOT NULl," +
      "   ip STRING," +
      "   size INT" +
      ") WITH (" +
      "'connector' = 'mysql-cdc'," +
      "'hostname' = 'localhost'," +
      "'port' = '3306'," +
      "'username' = 'root'," +
      "'password' = 'cain'," +
      "'database-name' = 'test'," +
      "'table-name' = 't_test'" +
      ")"

    // 輸出目標表
    val sinkDDL =
      "CREATE TABLE test_sink (\n" +
        " ip STRING,\n" +
        " countSum BIGINT,\n" +
        " PRIMARY KEY (ip) NOT ENFORCED\n" +
        ") WITH (\n" +
        " 'connector' = 'print'\n" +
        ")"

    val exeSQL =
      "INSERT INTO test_sink " +
        "SELECT ip, COUNT(1) " +
        "FROM test_binlog " +
        "GROUP BY ip"

    tableEnv.executeSql(sourceDDL)

    tableEnv.executeSql(sinkDDL)

    val result = tableEnv.executeSql(exeSQL)
    result.print()
  }
 
  1. 啟動flink job,并且插入數據
INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
...
 

插入數據可直接在console中看到flink處理的結果

如何理解Apache Flink CDC原理與使用  

Apache Flink CDC的方式替代了之前的canal+kafka節點.直接通過sql的方式來實現對mysql數據的同步。

看完上述內容,你們掌握如何理解Apache Flink CDC原理與使用的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

吕梁市| 崇明县| 璧山县| 灵台县| 墨竹工卡县| 随州市| 万载县| 论坛| 巴马| 巢湖市| 绥滨县| 赣州市| 安义县| 全州县| 寿光市| 尤溪县| 五原县| 莎车县| 博爱县| 当涂县| 都安| 冕宁县| 沅陵县| 青冈县| 新晃| 修武县| 亚东县| 鄄城县| 双流县| 化隆| 桑植县| 德令哈市| 和龙市| 确山县| 南漳县| 青岛市| 宿州市| 萍乡市| 万年县| 太仆寺旗| 舒城县|