您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“hadoop怎樣安裝與配置”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“hadoop怎樣安裝與配置”這篇文章吧。
##1.hadoop簡介
hadoop有什么作用?應用于哪些領域?解決什么問題?
1.hadoop的三大核心組件
1>HDFS(分布式文件系統),解決海量數據存儲。
2>YARN(作業調度和集群資源管理),解決資源任務調度問題。 3>MAPReduce(分布式變成模型) , 解決海量數據計算問題。
2.hadoop應用領域
1>日志分析處理
2>ETL,數據抽取到mysql、mongdb、hive等數據庫。
3>機器學習,如Apache Mahout項目,這個點目前比較火爆。
4>數據挖掘,其實就是數據分析,如智能推薦。
3.hadoop解決問題
舉例說明:需求方要求在100M的文件中統計分析出某些特殊字符的位置以及個數等,這個時候用java文件流的方式可以實現,去讀取這個文件,然后寫邏輯代碼分析統計。但是需求方如果給10個100M,或者是1w個100M的文件呢,這個時候就只能依靠一些大數據框架來處理了,hadoop應運而生,它解決的問題就是 海量數據存儲及海量數據分析。
##2.安裝hadoop
1.下載hadoop,官網地址:https://archive.apache.org/dist/hadoop/common/hadoop-2.10.1/
2.解壓hadoop,tar -zxvf hadoop-2.10.1.tar.gz,如下圖
這里簡要說明下hadoop目錄結構
1>bin目錄,存放hadoop相關服務(hdfs、mapred、yarn)的操作腳本。
2>etc目錄,存放hadoop的配置文件,后面會大量修改這里配置文件
3>lib目錄,存放hadoop的本地庫,對數據進行壓縮與解壓功能
4>sbin目錄,存放hadoop所有服務的啟動或者停止腳本
5>share目錄,存放hadoop的依賴jar包,文檔與官方樣例
3.配置hadoop環境變量
vi /etc/profile
#hadoop環境變量 export HADOOP_HOME=/usr/java/hadoop/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
4.測試是否安裝成功
hadoop version
很明顯,出來了版本信息,說明環境變量配置沒得問題
5.修改hadoop配置文件
1>修改配置文件hadoop-env.sh
打開該配置文件,發現有一行是配置java環境變量的,初始值是${JAVA_HOME},這里改成具體的jdk所在目錄。查看jdk安裝目錄采用echo $JAVA_HOME命令,
修改hadoop-env.sh之后,如下
2>修改配置文件core-site.xml
主要設置兩個屬性,1.HDFS的NameNode的地址;2.指定hadoop運行時產生的臨時文件目錄
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9090</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/java/hadoop/hadoop-2.10.1/tmp</value> </property> </configuration>
修改后如下
3>修改hdfs-site.xml文件
主要設置3個屬性,1.namenode產生的文件存放路徑,2.datanode產生的文件存放路徑,3.replication表示HDFS保存數據副本的數量。
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/java/hadoop/hadoop-2.10.1/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/java/hadoop/hadoop-2.10.1/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
4>修改配置文件mapred-site.xml
我們在hadoop目錄下沒有發現mapred-site.xml,但是有mapred-site.xml.template,如下圖
所以我們需要去掉 .template。采用mv mapred-site.xml.template mapred-site.xml。
該配置文件我們只設置一個屬性,用于指定mapreduce運行在yarn上,即mapreduce使用yarn框架。
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
5>修改配置文件yarn-site.xml
主要配置是nodemanager獲取數據的方式是shuffle。
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandle</value> </property> </configuration>
以上是“hadoop怎樣安裝與配置”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。