91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

SPARK2與Phoenix整合的方法是什么

發布時間:2021-12-16 14:54:25 來源:億速云 閱讀:188 作者:iii 欄目:大數據

本篇內容主要講解“SPARK2與Phoenix整合的方法是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“SPARK2與Phoenix整合的方法是什么”吧!

1、環境說明

操作系統CentOS Linux release 7.4.1708 (Core)
Ambari2.6.x
HDP2.6.3.0
Spark2.x
Phoenix4.10.0-HBase-1.2
 

2、條件

  1. HBase 安裝完成

  2. Phoenix 已經啟用,Ambari界面如下所示:

    SPARK2與Phoenix整合的方法是什么    
  3. Spark 2安裝完成

 

3、Spark2 與 Phoenix整合


步驟:

  1. 進入 Ambari Spark2 配置界面

    SPARK2與Phoenix整合的方法是什么    
  2. 找到自定義 spark2-defaults并添加如下配置項:

    spark.driver.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar
    spark.executor.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar
       
    SPARK2與Phoenix整合的方法是什么      
    mark
 

4、Yarn HA 問題

如果配置了Yarn HA, 則需要修改 Yarn HA 配置,否則spark-submit提交任務會報如下錯誤:

Exception in thread "main" java.lang.IllegalAccessError: tried to access method org.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider.getProxyInternal()Ljava/lang/Object; from class org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider
       at org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider.init(RequestHedgingRMFailoverProxyProvider.java:75)
       at org.apache.hadoop.yarn.client.RMProxy.createRMFailoverProxyProvider(RMProxy.java:163)
       at org.apache.hadoop.yarn.client.RMProxy.createRMProxy(RMProxy.java:94)
       at org.apache.hadoop.yarn.client.ClientRMProxy.createRMProxy(ClientRMProxy.java:72)
       at org.apache.hadoop.yarn.client.api.impl.YarnClientImpl.serviceStart(YarnClientImpl.java:187)
       at org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
       at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:153)
       at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.start(YarnClientSchedulerBackend.scala:56)
       at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:173)
       at org.apache.spark.SparkContext.<init>(SparkContext.scala:509)
       at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2516)
       at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:922)
       at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:914)
       at scala.Option.getOrElse(Option.scala:121)
       at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:914)
       at cn.spark.sxt.SparkOnPhoenix$.main(SparkOnPhoenix.scala:13)
       at cn.spark.sxt.SparkOnPhoenix.main(SparkOnPhoenix.scala)
       at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
       at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
       at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
       at java.lang.reflect.Method.i
 

修改Yarn HA配置:

原來的配置:

yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider
 
SPARK2與Phoenix整合的方法是什么  

改為現在的配置

yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider
 
SPARK2與Phoenix整合的方法是什么

如果沒有配置 Yarn HA, 則不需要進行此步配置

到此,相信大家對“SPARK2與Phoenix整合的方法是什么”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

赣榆县| 义乌市| 务川| 洛阳市| 芜湖市| 青冈县| 巴林左旗| 满城县| 琼海市| 霍山县| 黎平县| 集贤县| 济源市| 彰化县| 珲春市| 紫云| 靖江市| 辰溪县| 广东省| 丹巴县| 弥勒县| 文昌市| 河池市| 鄢陵县| 含山县| 黎城县| 阜平县| 龙里县| 丽水市| 宣化县| 双流县| 塔河县| 水城县| 磐安县| 平塘县| 普兰店市| 景泰县| 泰安市| 广西| 江源县| 新郑市|