您好,登錄后才能下訂單哦!
發現用spark寫表join比flink 簡單很多,至少schema 可以省了,下面是一個例子
public static void main(String[] args) {
SparkSession s= SparkSession.builder().appName("rec").getOrCreate();
Dataset<Row> user=s.read().format("jdbc")
.option("driver", "com.mysql.jdbc.Driver")
.option("url", "jdbc:mysql://*")
.option("dbtable", "user")
.option("user", "1")
.option("password", "1")
.load();
Dataset<Row> house=s.read().format("jdbc")
.option("driver", "com.mysql.jdbc.Driver")
.option("url", "jdbc:mysql://")
.option("dbtable", "house")
.option("user", "1")
.option("password", "1")
.load();
user.cache();
house.cache();
user.createOrReplaceTempView("user");
house.createOrReplaceTempView("house");
Dataset<Row> temp= s.sql("select user.user_name, house.house_name from user inner join house where user.uid=house.uid ");
temp.write().csv("/home/ziroom/house-user");
}
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。