91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

flink streaming sql怎么使用

發布時間:2021-12-31 10:35:09 來源:億速云 閱讀:167 作者:iii 欄目:大數據

本篇內容主要講解“flink streaming sql怎么使用”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“flink streaming sql怎么使用”吧!

背景

SQL,Structured Query Language:結構化查詢語言,作為一個通用、流行的查詢語言,不僅僅是在傳統的數據庫,在大數據領域也變得越來越流行,hive、spark、kafka、flink等大數據組件都支持sql的查詢,使用sql可以讓一些不懂這些組件原理的人,輕松的來操作,大大的降低了使用的門檻,今天我們先來簡單的講講在flink的流處理中如何使用sql. 

實例講解 

構造StreamTableEnvironment對象

在flink的流處理中,要使用sql,需要首先構造一個StreamTableEnvironment對象,方法比較簡單。

sql中用到的catalog、table、function等都需要注冊到StreamTableEnvironment才能使用。

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);
   

注冊table

接下來要將相應的表的信息注冊到StreamTableEnvironment對象中,有以下幾種方式可以選擇.
以下的代碼是基于flink 1.10.0版本進行講解的,各個版本略有不同。 

使用Tuple


  //使用flink的二元組,這個時候需要自定義字段名稱
  Tuple2<String,Integer> tuple2 = Tuple2.of("jack", 10);
  //構造一個Tuple的DataStream
  DataStream<Tuple2<String,Integer>> tupleStream = env.fromElements(tuple2);
//  注冊到StreamTableEnvironment,并且指定對應的字段名
  tableEnv.createTemporaryView("usersTuple", tupleStream, "name,age");
  //執行一個sql 查詢. 然后返回一個table對象
  Table table = tableEnv.sqlQuery("select name,age from usersTuple");
//  將table對象轉成flink的DataStream,以便后續操作,我們這里將其輸出
  tableEnv.toAppendStream(table, Row.class).print();

使用Row

flink中提供的元組Tuple是有限制的,最多到Tuple25,所以如果我們有更多的字段,可以選擇使用flink中的Row對象.


 //使用Row
  Row row = new Row(2);
  row.setField(0, "zhangsan");
  row.setField(1, 20);
  DataStream<Row> rowDataStream = env.fromElements(row);
  tableEnv.createTemporaryView("usersRow", rowDataStream, "name,age");
  Table tableRow = tableEnv.sqlQuery("select name,age from usersRow");
  tableEnv.toAppendStream(tableRow, Row.class).print();
   

使用java的Pojo類

首先定一個pojo類


 public static class User{
  private String name;
  private int age;

  public String getName(){
   return name;
  }

  public void setName(String name){
   this.name = name;
  }

  public int getAge(){
   return age;
  }

  public void setAge(int age){
   this.age = age;
  }
 }
 

定義這個pojo類是要符合flink的序列化規則,是有一定要求的,具體的可以參考【1】:

  1. 該類是public類型并且沒有非靜態內部類
  2. 該類擁有公有的無參構造器
  3. 類(以及所有超類)中的所有非靜態、非 transient 字段都是公有的(非 final 的);或者遵循 Java bean 規則,字段是private的,但是具有public類型的 getter 和 setter 方法

User user = new User();
  user.setName("Tom");
  user.setAge(20);
  DataStream<User> userDataStream = env.fromElements(user);
  tableEnv.createTemporaryView("usersPojo", userDataStream);
  Table tablePojo = tableEnv.sqlQuery("select name,age from usersPojo");
  tableEnv.toAppendStream(tablePojo, Row.class).print();

 

如果使用的是java pojo類型的DataStream,就不用聲明字段名稱了,flink會自動解析pojo類中的字段名稱和類型來作為table的字段和類型。 

使用外部存儲


  //連接外部系統,比如文件,kafka等
  Schema schema = new Schema()
    .field("name", DataTypes.STRING())
    .field("age", DataTypes.INT());
  tableEnv.connect(new FileSystem().path("...."))
          .withFormat(new Csv())
          .withSchema(schema)
          .createTemporaryTable("usersFile");
  Table tableFile = tableEnv.sqlQuery("select name,age from usersFile");
  tableEnv.toAppendStream(tableFile, Row.class).print();
 

使用外部存儲的時候需要指定以下對象:

  1. tableEnv.connect(ConnectorDescriptor ...) 指定連接符,目前flink支持Elasticsearch、hbase、kafka、filesystem這幾類
  2. withFormat(FormatDescriptor format) 這個就是指定我們從上述數據源讀取的數據的格式,比如json、csv、parquet等等
  3. .withSchema(Schema schema) 給我們的table定義一個schema,也就是字段的名稱和類型,用于sql查詢
  4. .createTemporaryTable("usersFile") 給表起一個名字,并且注冊到StreamTableEnvironment中

到此,相信大家對“flink streaming sql怎么使用”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

河北区| 永胜县| 凌云县| 新丰县| 伊金霍洛旗| 旺苍县| 上思县| 呼和浩特市| 延川县| 浙江省| 松滋市| 阜康市| 商都县| 龙州县| 廉江市| 四川省| 金阳县| 余庆县| 绥江县| 兴仁县| 互助| 巴林右旗| 南木林县| 榆林市| 鄂尔多斯市| 绍兴县| 饶河县| 教育| 建水县| 贵溪市| 连江县| 桓仁| 海南省| 绩溪县| 崇州市| 房产| 分宜县| 广河县| 化德县| 渝中区| 东乌珠穆沁旗|