91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop中exceeds the limit of concurrent xcievers錯誤怎么處理

發布時間:2021-12-10 11:54:20 來源:億速云 閱讀:132 作者:iii 欄目:大數據

本篇內容介紹了“hadoop中exceeds the limit of concurrent xcievers錯誤怎么處理”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

dfs.datanode.max.transfer.threads: 默認 4096 < 2.0之前該參數為dfs.datanode.max.xcievers >
解釋:Specifies the maximum number of threads to use for transferring data in and out of the DN.

表示datanode上負責進行文件操作的線程數。如果需要處理的文件過多,而這個參數設置得過低就會有一部分文件處理不過來,就會報異常。
linux系統中所有的文件操作都被綁定到一個socket上,進一步具體可以把他看做是一個線程。而這個參數就是指定這種線程的個數。
在datanode里面有一個專門的線程組來維護這些線程,同時有一個守護線程來監視這個線程組的體量,它負責監測線程數量是否到達上線,
超過就拋出異常,則需調大 hdfs-site.xml 文件中的 dfs.datanode.max.transfer.threads 。

dfs.datanode.max.transfer.threads 參數設置過小,datanode 異常:
ERROR org.apache.hadoop.dfs.DataNode: DatanodeRegistration(10.10.10.53:50010,
storageID=DS-1570581820-10.10.10.53-50010-1224117842339,infoPort=50075, ipcPort=50020)
:DataXceiver: java.io.IOException: xceiverCount 258 exceeds the limit of concurrent xcievers 256

注意:dfs.datanode.max.transfer.threads 數目不能大于系統打開文件數的設置,即/etc/security/limits.conf中nofile的數值。

“hadoop中exceeds the limit of concurrent xcievers錯誤怎么處理”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

湖北省| 吉安县| 敦煌市| 伊川县| 宜春市| 石林| 元阳县| 清镇市| 荣成市| 本溪| 铜鼓县| 楚雄市| 朝阳市| 玉溪市| 迁安市| 会昌县| 桓台县| 天等县| 扶绥县| 永平县| 天全县| 达孜县| 龙山县| 双柏县| 紫阳县| 塔城市| 甘孜县| 宜昌市| 葫芦岛市| 杭锦后旗| 宜兰市| 阳新县| 凌源市| 华宁县| 阜阳市| 姚安县| 绥芬河市| 桓仁| 白城市| 宝清县| 鹤山市|