#
Hadoop作為搭建大數據處理平臺的重要“基石”,關于它的分析和講解的文章已經有很多了。Hadoop本身是一分布式的系統,因此在安裝的時候,需要多每一個節點進行組建的安裝。并且由于是開源軟件,其安裝過
新增master節點的配置文件:? ? # vim /usr/local/redis-3.0.6-6379/redis.conf? ? ? ? daemonize yes ? ? ? ? ? ? ?
spark集群使用hadoop用戶運行,集群機器如下:1DEV-HADOOP-01192.168.9.110Master2DEV-HADOOP-02192.168.9.111Worker3DEV-HA
添加db # su - oracle $ srvctl add database -d cfcdb -o&nb
新節點不用拷貝軟件,系統環境配置和rac1相同即可,手動添加與rac1、rac2互信,更改hosts文件.然后開搞:老節點oracle及grid用戶下檢查:cluvfy stage -pre node