91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何通過web查看hdfs集群狀態

發布時間:2021-12-10 12:10:19 來源:億速云 閱讀:965 作者:iii 欄目:云計算

這篇文章主要介紹“如何通過web查看hdfs集群狀態”,在日常操作中,相信很多人在如何通過web查看hdfs集群狀態問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何通過web查看hdfs集群狀態”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

 

問題導讀:
1.如何通過web查看hdfs集群狀態
2.如何通過web查看運行在在主節點master上ResourceManager狀態
3.如何通過web查看運行在在slave節點NodeManager資源狀態 
4.JobHistory 可以查看什么信息

本文是在hadoop2的基礎上hadoop2完全分布式最新高可靠安裝文檔的一個繼續。
hadoop2.2安裝完畢,我們該怎么使用它,這里做一些簡單的介紹

一、可以通過登錄Web控制臺,查看HDFS集群狀態,訪問如下地址: 

  1. http://master:50070/

復制代碼

如何通過web查看hdfs集群狀態 
來源:
組件        :HDFS
節點        :NameNode
默認端口:50070
配置        :dfs.namenode.http-address
用途說明:http服務的端口
                                
hadoop2.x常用端口及定義方法(可收藏方便以后查詢)



二、ResourceManager運行在主節點master上,可以Web控制臺查看狀態
 

  1. http://master:8088/

復制代碼

如果你的主機名不是master,按照下面格式來訪問。
 

  1. http://ip地址:8088/

復制代碼


或則

  1. http://hostname:8088/

復制代碼



如何通過web查看hdfs集群狀態 


這里介紹8088的來源:

yarn-site.xml中的屬性:

<property>
               <name>yarn.resourcemanager.webapp.address</name>
               <value>master:8088</value>
       </property>


三、NodeManager運行在從節點上,可以通過Web控制臺查看對應節點的資源狀態,例如節點slave1:

  1. http://slave1:8042/

復制代碼

如何通過web查看hdfs集群狀態 
來源:
組件        :YARN
節點        :NodeManager
默認端口:8042
配置        :yarn.nodemanager.webapp.address        
用途說明:http服務端口



四、管理JobHistory Server
啟動可以JobHistory Server,能夠通過Web控制臺查看集群計算的任務的信息,執行如下命令:

  1. mr-jobhistory-daemon.sh start historyserver

復制代碼

默認使用19888端口。
通過訪問http://master:19888/
如何通過web查看hdfs集群狀態

來源:
組件        :YARN
節點        :JobHistory Server
默認端口:19888
配置        :mapreduce.jobhistory.webapp.address        
用途說明:http服務端口

以上所有端口都可以從hadoop2.x常用端口及定義方法(可收藏方便以后查詢)文章中找到。

終止JobHistory Server,執行如下命令:

  1. mr-jobhistory-daemon.sh stop historyserver

復制代碼


如何通過web查看hdfs集群狀態

概述
文件系統 (FS) shell 包括各種類似的命令直接與 Hadoop Distributed File System (HDFS)交互。hadoop也支持其它文件系統,比如 Local FS, HFTP FS, S3 FS, 和 其它的.  FS shell被下面調用:

[Bash shell] 純文本查看 復制代碼

?

1

bin/hadoop fs <args>


所有的FS shell命令帶有URIs路徑參數。The URI 格式是://authority/path。對 HDFS文件系統,scheme是hdfs。其中scheme和 authority參數都是可選的
如果沒有指定,在文件中使用默認scheme.一個hdfs文件或則目錄比如 /parent/child,可以是 hdfs://namenodehost/parent/child 或則簡化為/parent/child(默認配置設置成指向hdfs://namenodehost).大多數FS shell命令對應 Unix 命令.每個命令都有不同的描述。將錯誤信息發送到標準錯誤輸出和輸出發送到stdout。

appendToFile【添加文件】

用法: hadoop fs -appendToFile <localsrc> ... <dst>添加單個src,或則多個srcs從本地文件系統到目標文件系統。從標準輸入讀取并追加到目標文件系統。
 

  • hadoop fs -appendToFile localfile /user/hadoop/hadoopfile

  • hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile

  • hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile

  • hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.

返回代碼:
返回 0成功返回 1 錯誤

cat

用法: hadoop fs -cat URI [URI ...]
將路徑指定文件的內容輸出到stdout 

例子:

  • hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2

  • hadoop fs -cat file:///file3 /user/hadoop/file4

返回代碼:
返回 0成功返回 1 錯誤

checksum
用法: hadoop fs -checksum URI
返回  checksum 文件信息
例子:

  • hadoop fs -checksum hdfs://nn1.example.com/file1

  • hadoop fs -checksum file:///etc/hosts


chgrp
用法: hadoop fs -chgrp [-R] GROUP URI [URI ...]
改變文件所屬組. 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項

  • 使用-R 將使改變在目錄結構下遞歸進行


chmod
用法: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
更改文件的權限. 使用-R 將使改變在目錄結構下遞歸進行。 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項

  • 使用-R 將使改變在目錄結構下遞歸進行。


chown
用法: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
更改文件的所有者. 使用-R 將使改變在目錄結構下遞歸進行。 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項

  • 使用-R 將使改變在目錄結構下遞歸進行。


copyFromLocal
用法: hadoop fs -copyFromLocal <localsrc> URI
類似put命令, 需要指出的是這個限制是本地文件
選項:

  • -f 選項會重寫已存在的目標文件


copyToLocal
用法: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
與get命令類似, 除了限定目標路徑是一個本地文件外。

count
用法: hadoop fs -count [-q] [-h] [-v] <paths>統計目錄個數,文件和目錄下文件的大小。輸出列:DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【目錄個數,文件個數,總大小,路徑名稱】

輸出列帶有 -count -q 是: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA, DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【配置,其余指標,空間配額,剩余空間定額,目錄個數,文件個數,總大小,路徑名稱】
The -h 選項,size可讀模式.
The -v 選項顯示一個標題行。
Example:

  • hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2

  • hadoop fs -count -q hdfs://nn1.example.com/file1

  • hadoop fs -count -q -h hdfs://nn1.example.com/file1

  • hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1

返回代碼:
返回 0成功返回 1 錯誤

cp
用法: hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>復制文件,這個命令允許復制多個文件到一個目錄。
‘raw.*’ 命名空間擴展屬性被保留
(1)源文件和目標文件支持他們(僅hdfs)
(2)所有的源文件和目標文件路徑在 /.reserved/raw目錄結構下。
決定是否使用 raw.*命名空間擴展屬性依賴于-P選項

選項:

  • -f 選項如果文件已經存在將會被重寫.

  • -p 選項保存文件屬性 [topx] (timestamps, ownership, permission, ACL, XAttr). 如果指定 -p沒有參數, 保存timestamps, ownership, permission. 如果指定 -pa,  保留權限 因為ACL是一個權限的超級組。確定是否保存raw命名空間屬性取決于是否使用-p決定

例子:

  • hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2

  • hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

返回代碼:
返回 0成功返回 1 錯誤

createSnapshot
查看 HDFS Snapshots Guide.

deleteSnapshot
查看 HDFS Snapshots Guide.

df【查看還剩多少hdfs空間】
用法: hadoop fs -df [-h] URI [URI ...]
顯示剩余空間
選項:

  • -h 選項會讓人更加易讀 (比如 64.0m代替 67108864)

Example:

  • hadoop dfs -df /user/hadoop/dir1


du
用法: hadoop fs -du [-s] [-h] URI [URI ...]顯示給定目錄的文件大小及包含的目錄,如果只有文件只顯示文件的大小
選項:

  • -s 選項匯總文件的長度,而不是現實單個文件.

  • -h 選項顯示格式更加易讀 (例如 64.0m代替67108864)

例子:

  • hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1

返回代碼:
返回 0成功返回 1 錯誤

dus
用法: hadoop fs -dus <args>
顯示統計文件長度
注意:這個命令已被啟用, hadoop fs -du -s即可

expunge
用法: hadoop fs -expunge
清空垃圾回收站. 涉及 HDFS Architecture Guide 更多信息查看回收站特點

find
用法: hadoop fs -find <path> ... <expression> ...查找與指定表達式匹配的所有文件,并將選定的操作應用于它們。如果沒有指定路徑,則默認查找當前目錄。如果沒有指定表達式默認-print

下面主要表達式:

  • -name 模式
    -iname  模式

如果
值為TRUE如果文件基本名匹配模式使用標準的文件系統組合。如果使用-iname匹配不區分大小寫。

  • -print
    -print0Always
    值為TRUE. 當前路徑被寫至標準輸出。如果使用 -print0 表達式, ASCII NULL 字符是追加的.

下面操作:

  • expression -a expression
    expression -and expression
    expression expression

and運算符連接兩個表達式,如果兩個字表達式返回true,則返回true.由兩個表達式的并置暗示,所以不需要明確指定。如果第一個失敗,則不會應用第二個表達式。

例子:
hadoop fs -find / -name test -print
返回代碼:
返回 0成功返回 1 錯誤

get
用法: hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>復制文件到本地文件。
復制文件到本地文件系統. 【CRC校驗失敗的文件復制帶有-ignorecrc選項(如翻譯有誤歡迎指正)】
Files that fail the CRC check may be copied with the -ignorecrc option. 

文件CRC可以復制使用CRC選項。

例子:

  • hadoop fs -get /user/hadoop/file localfile

  • hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile

返回代碼:
返回 0成功返回 1 錯誤

到此,關于“如何通過web查看hdfs集群狀態”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

体育| 且末县| 莲花县| 府谷县| 怀安县| 房山区| 耒阳市| 胶南市| 晋州市| 黔西县| 乐平市| 亚东县| 江西省| 改则县| 凌海市| 南康市| 永福县| 开鲁县| 余干县| 贡觉县| 科技| 望奎县| 孝昌县| 咸阳市| 晋中市| 全椒县| 保康县| 韶山市| 廉江市| 济南市| 界首市| 忻州市| 法库县| 澳门| 容城县| 塔城市| 云安县| 信阳市| 集安市| 宜良县| 象山县|