91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop集群問題集

發布時間:2020-08-11 06:52:07 來源:網絡 閱讀:883 作者:蜷縮的蝸牛 欄目:大數據

1、bigdata is not allowed to impersonate xxx

原因:用戶代理未生效。檢查core-site.xml文件是否正確配置。

<property>
  <name>hadoop.proxyuser.bigdata.hosts</name>
  <value>*</value>
</property>
<property>
  <name>hadoop.proxyuser.bigdata.groups</name>
 <value>*</value>
</property>

備注hadoop.proxyuser.XXX.hosts 與 hadoop.proxyuser.XXX.groups 中XXX為異常信息中User:* 中的用戶名部分

<property> 
    <name>hadoop.proxyuser.bigdata.hosts</name> 
    <value>*</value> 
    <description>The superuser can connect only from host1 and host2 to impersonate a user</description>
</property> 
<property> 
    <name>hadoop.proxyuser.bigdata.groups</name> 
    <value>*</value> 
    <description>Allow the superuser oozie to impersonate any members of the group group1 and group2</description>
</property>

增加以上配置后,無需重啟集群,可以直接在namenode節點上使用管理員賬號重新加載這兩個屬性值,命令為:

$ hdfs dfsadmin -refreshSuperUserGroupsConfiguration
Refresh super user groups configuration successful

$ yarn rmadmin -refreshSuperUserGroupsConfiguration 
19/01/16 15:02:29 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8033

如果集群配置了HA,執行如下命令namenode節點全部重新加載:

# hadoop dfsadmin -fs hdfs://ns -refreshSuperUserGroupsConfiguration
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

Refresh super user groups configuration successful for master/192.168.99.219:9000
Refresh super user groups configuration successful for node01/192.168.99.173:9000

2、org.apache.hadoop.hbase.exceptions.ConnectionClosingException

現象:使用beeline、jdbc、python調用hiveserver2時,無法查詢、建表等Hbase關聯表,

  <property>
        <name>hive.server2.enable.doAs</name>
        <value>false</value>
        <description>
      Setting this property to true will have HiveServer2 execute
      Hive operations as the user making the calls to it.
        </description>
  </property>

在hive創建Hbase關聯表

# Hive中的表名test_tb
CREATE TABLE test_tb(key int, value string) 
# 指定存儲處理器
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
# 聲明列族,列名
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf1:val") 
# hbase.table.name聲明HBase表名,為可選屬性默認與Hive的表名相同
# hbase.mapred.output.outputtable指定插入數據時寫入的表,如果以后需要往該表插入數據就需要指定該值
TBLPROPERTIES ("hbase.table.name" = "test_tb", "hbase.mapred.output.outputtable" = "test_tb");  

Spark work目錄定時清理

  • 使用spark standalone模式執行任務,沒提交一次任務,在每個節點work目錄下都會生成一個文件夾,命名規則app-xxxxxxx-xxxx。該文件夾下是任務提交時,各節點從主節點下載的程序所需要的資源文件。 這些目錄每次執行都會生成,且不會自動清理,執行任務過多會將內存撐爆。

  • 每一個application的目錄中都是該spark任務運行所需要的依賴包:
    export SPARK_WORKER_OPTS="  
    -Dspark.worker.cleanup.enabled=true  # 是否開啟自動清理
    -Dspark.worker.cleanup.interval=1800  # 清理周期,每隔多長時間清理一次,單位秒
    -Dspark.worker.cleanup.appDataTtl=3600"  # 保留最近多長時間的數據

zookeeper連接數過多導致hbase、hive無法連接

2019-01-25 03:26:41,627 [myid:] - WARN  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxnFactory@211] - Too many connections from /172.17.0.1 - max is 60
根據線上環境修改hbase、hive連接Zookeeper配置
hbase-site.xml
hbase.zookeeper.property.maxClientCnxns
hive-site.xml

hive.server2.thrift.min.worker.threads
hive.server2.thrift.max.worker.threads
hive.zookeeper.session.timeout
zoo.cfg
# Limits the number of concurrent connections (at the socket level) that a single client, identified by IP address
maxClientCnxns=200
# The minimum session timeout in milliseconds that the server will allow the client to negotiate
minSessionTimeout=1000
# The maximum session timeout in milliseconds that the server will allow the client to negotiate
maxSessionTimeout=60000

持續更新....

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

广东省| 阿拉善左旗| 彭阳县| 城固县| 吴川市| 井研县| 罗山县| 油尖旺区| 金平| 化德县| 绥阳县| 济阳县| 靖宇县| 仲巴县| 同仁县| 辽源市| 四平市| 蒙阴县| 崇州市| 天柱县| 奎屯市| 东丽区| 绍兴县| 鹤峰县| 大田县| 南乐县| 龙海市| 武义县| 西青区| 贵港市| 上饶县| 北票市| 元阳县| 威信县| 南丰县| 汽车| 汕尾市| 东乌珠穆沁旗| 芦溪县| 阳春市| 礼泉县|