gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区

站長資訊網
最全最豐富的資訊網站

Hadoop2.0完全分布式集群搭建方法(CentOS7+Hadoop2.7.7)

本文詳細介紹搭建4個節點的完全分布式Hadoop集群的方法,Linux系統版本是CentOS 7,Hadoop版本是2.7.7,JDK版本是1.8。

一、準備環境

1. 在VMware workstations上創建4個Linux虛擬機,并配置其靜態IP。

如何在VMware workstation上創建Linux虛擬機

準備使用Linux虛擬機部署Hadoop集群,故在win10系統上安裝了VMware workstation,具體安裝非常簡單,在此不做闡述。本文主要介紹如何在VMware workstation上創建Linux虛擬機。

步驟:

1. 如下圖,在VMware workstation中,點擊【創建新的虛擬機】。

Hadoop2.0完全分布式集群搭建方法(CentOS7+Hadoop2.7.7)

2. Linux虛擬機的具體配置如下:

Hadoop2.0完全分布式集群搭建方法(CentOS7+Hadoop2.7.7)

有關【克隆Linux虛擬機及配置網絡】,請參考這里。

2. 配置DNS(每個節點)

編輯配置文件,添加主節點和從節點的映射關系。

#vim /etc/hosts
192.168.44.3 hadoop01
192.168.44.4 hadoop02
192.168.44.5 hadoop03
192.168.44.6 hadoop04

 3. 關閉防火墻(每個節點)

#關閉服務
[root@hadoop01 opt]# systemctl stop firewalld
#關閉開機自啟動
[root@hadoop01 opt]# systemctl disable firewalld
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.Fedoraproject.FirewallD1.service.

4. 配置免密碼登錄
有關【配置免密碼登錄方法】,請參考這里 http://m.gmnon.cn/Linux/2019-02/156882.htm。

5. 配置Java環境(每個節點)

本文詳細介紹Linux系統下配置Java環境的方法,使用JDK1.8版本。

1. 從Oracle官網上下載Java8版本。

下載鏈接:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

2. 上傳Java包到Linux系統。

使用rz命令將Java tar包上傳到Linux系統。(有關rz命令用法,請參考這里)

3. 解壓Java安裝包

[root@hadoop01 opt]# ls
jdk-8u101-linux-x64.tar.gz
[root@hadoop01 opt]# tar -zxvf jdk-8u101-linux-x64.tar.gz

jdk1.8.0_101/man/ja_JP.UTF-8/man1/javapackager.1
jdk1.8.0_101/man/ja_JP.UTF-8/man1/jstat.1
[root@hadoop01 opt]# ls
jdk1.8.0_101  jdk-8u101-linux-x64.tar.gz

4. 配置Java環境變量

#vim /etc/profile
# Java
export JAVA_HOME=/opt/jdk1.8.0_101  # 該路徑為java安裝路徑
export CLASSPATH=$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin

# :wq保存后,使配置文件生效
#source /etc/profile

5. 驗證Java安裝狀態

[root@hadoop01 jdk1.8.0_101]# java -version
java version “1.8.0_101”
Java(TM) SE Runtime Environment (build 1.8.0_101-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.101-b13, mixed mode)

二、搭建Hadoop完全分布式集群

在各個節點上安裝與配置Hadoop的過程都基本相同,因此可以在每個節點上安裝好Hadoop后,在主節點master上進行統一配置,然后通過scp 命令將修改的配置文件拷貝到各個從節點上即可。

1. 下載Hadoop安裝包,解壓,配置Hadoop環境變量

有關【Hadoop安裝包下載方法】。

Hadoop3.0版本的誕生,引入了很多新功能,為了驗證Hadoop2.0與3.0版本的性能,需下載Hadoop的不同版本。故下文演示如何下載Hadoop安裝包的方法。

1. 進入Apache Hadoop官網:http://hadoop.apache.org/

2. 點擊左側【Download】按鈕,進入如下下載頁面:

Hadoop2.0完全分布式集群搭建方法(CentOS7+Hadoop2.7.7)

可點擊當前界面上顯示的Binary安裝包進入下載,亦可點擊【mirror site】進入鏡像頁面,選擇要安裝的版本進行下載。

本文下載的Hadoop版本是2.7.7,指定一個目錄(比如:/opt),使用rz命令上傳Hadoop安裝包到Linux系統,解壓到指定目錄,配置Hadoop環境變量,并使其生效。實現命令如下:

#配置Hadoop環境變量
[root@hadoop02 opt]# vim /etc/profile
#Hadoop
export HADOOP_HOME=/opt/hadoop-2.7.7 # 該目錄為解壓安裝目錄
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

#保存后,使profile生效
[root@hadoop02 opt]# source /etc/profile

2. 配置Hadoop環境腳本文件中的JAVA_HOME參數

#進入Had安裝目錄下的etc/hadoop目錄
[root@hadoop01 ~]#cd /opt/hadoop-2.7.7/etc/hadoop

#分別在hadoop-env.sh、mapred-env.sh、yarn-env.sh文件中添加或修改如下參數:

[root@hadoop01 hadoop]# vim hadoop-env.sh
[root@hadoop01 hadoop]# vim mapred-env.sh
[root@hadoop01 hadoop]# vim yarn-env.sh
export JAVA_HOME=”/opt/jdk1.8.0_101″  # 路徑為jdk安裝路徑

 3. 修改Hadoop配置文件

Hadoop安裝目錄下的etc/hadoop目錄中,需修改core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves(3.0之后為workers)文件,根據實際情況修改配置信息。

(1)core-site.xml

<configuration>
<property>
    <!– 配置hdfs地址 –>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop01:9000</value>
</property>
<property>
    <!– 保存臨時文件目錄,需先在/opt/hadoop-2.7.7下創建tmp目錄 –>
    <name>hadoop.tmp.dir</name>
    <value>/opt/hadoop-2.7.7/tmp</value>
</property>

<property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
</property>
</configuration>

(2)hdfs-site.xml

<configuration>
    <property>
        <!– 主節點地址 –>
        <name>dfs.namenode.http-address</name>
        <value>hadoop01:50070</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/opt/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/opt/hadoop/dfs/data</value>
    </property>
    <property>
        <!– 備份份數 –>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <!– 第二節點地址 –>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop02:9001</value>
    </property>
    <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
        <description>配置為false后,可以允許不要檢查權限就生成dfs上的文件,需防止誤刪操作</description>
    </property>
</configuration>

(3)mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>hadoop01:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>hadoop01:19888</value>
    </property>
</configuration>

(4)yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>hadoop01:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>hadoop01:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>hadoop01:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>hadoop01:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>hadoop01:8088</value>
    </property>
   
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <!– NodeManager中的配置,這里配置過小可能導致nodemanager啟動不起來
                          大小應該大于 spark中 executor-memory + driver的內存 –>
        <value>6144</value>
    </property>
    <property>
        <!– RsourceManager中配置
                          大小應該大于 spark中 executor-memory + driver的內存 –>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>61440</value>
    </property>
    <property>
        <!– 使用核數 –>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>2</value>
    </property>

    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
        <description>忽略虛擬內存的檢查,如果你是安裝在虛擬機上,這個配置很有用,配上去之后后續操作不易出問題。</description>
    </property>
    <property>
      <!– 調度策略,設置為公平調度器 –>
      <name>yarn.resourcemanager.scheduler.class</name>
      <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
    </property>
</configuration>

(5)slaves文件

#增加從節點地址(若配置了hosts,可直接使用主機名,亦可用IP地址)
[root@hadoop01 hadoop]# vim slaves
hadoop02
hadoop03
hadoop04

 4. 將配置好的文件夾拷貝到其他從節點

[root@hadoop01 hadoop-2.7.7]# scp -r /opt/hadoop-2.7.7 root@hadoop02:/opt/
[root@hadoop01 hadoop-2.7.7]# scp -r /opt/hadoop-2.7.7 root@hadoop03:/opt/
[root@hadoop01 hadoop-2.7.7]# scp -r /opt/hadoop-2.7.7 root@hadoop04:/opt/

5. 初始化 & 啟動

#格式化
[root@hadoop01 hadoop-2.7.7]# bin/hdfs namenode -format

#啟動
[root@hadoop01 hadoop-2.7.7]# sbin/start-dfs.sh
[root@hadoop01 hadoop-2.7.7]# sbin/start-yarn.sh

6. 驗證Hadoop啟動成功

#主節點
[root@hadoop01 hadoop-2.7.7]# jps
5895 Jps
5624 ResourceManager
5356 NameNode

#從節點
[root@hadoop02 hadoop]# jps
5152 SecondaryNameNode
5085 DataNode
5245 NodeManager
5357 Jps

[root@hadoop03 opt]# jps
5080 DataNode
5178 NodeManager
5278 Jps

[root@hadoop04 opt]# jps
5090 NodeManager
5190 Jps
4991 DataNode

7. Web端口訪問

注:先開放端口或直接關閉防火墻

# 查看防火墻狀態
firewall-cmd –state
# 臨時關閉
systemctl stop firewalld
# 禁止開機啟動
systemctl disable firewalld

在瀏覽器輸入:http://hadoop01:8088打開Hadoop Web頁面。

在瀏覽器輸入:http://hadoop01:50070打開Hadoop Web頁面。

Hadoop基本操作命令

#hadoop dfsadmin -report 查看hdfs集群的存儲空間使用情況。
#hadoop fs -du -h 目錄  查看當前目錄下各個文件占得內存
#hadoop fs –rmr /tmp/aaa刪除一個目錄
#hadoop fs –put文件 hdfs文件目錄上傳一個文件
#hadoop fs –get  hdfs文件下載地址目錄下載一個文件
#hadoop fs –moveFromLocal文件hdfs文件目錄上傳一個文件同時刪除本地文件
#haddop fs –text hdfs目錄查看文件內容
#haddopfs –cat hdfs目錄查看文件內容
#hadoop job –list獲取任務列表
#hadoop job –kill job-id殺死一個job
#hadoop-daemon.sh start datanoe加入一個新的節點
#hadoop mradmin/dfsadmin –refreshnones刪除一個節點
#yarn application -kill application_任務id:停止在yarn上運行的spark任務,在resourcemanager上執行
#hadoop fs -ls .Trash/Current (顯示Current目錄)
#hadoop fs -rm -r .Trash/Current (刪除Current目錄及其子目錄)

在 Linux Ubuntu 18.04/18.10上安裝Hadoop圖文詳解  http://m.gmnon.cn/Linux/2018-11/155282.htm

CentOS 7 下搭建Hadoop 2.9 分布式集群  http://m.gmnon.cn/Linux/2018-11/155328.htm

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区
国产精品嫩草影院8vv8| 成人av一级片| 色www免费视频| 99re在线视频免费观看| av日韩一区二区三区| 每日在线观看av| 欧美aⅴ在线观看| 亚洲性生活网站| 免费av不卡在线| 亚洲综合激情视频| 日本三级中文字幕在线观看| 中文国产在线观看| 91精品国产吴梦梦| 欧美日本视频在线观看| 欧美成人免费高清视频| 日本激情视频在线播放| 2021狠狠干| 日韩中文字幕二区| www.五月天色| 亚洲国产精品无码观看久久| 草草久久久无码国产专区| 黑人糟蹋人妻hd中文字幕| 污色网站在线观看| 男插女免费视频| www.com毛片| 天天干天天干天天干天天干天天干| 亚洲视频一二三四| 91黄色在线看| 在线免费视频a| 中文精品无码中文字幕无码专区| 欧美 日韩 国产在线观看| 热久久久久久久久| 国自产拍偷拍精品啪啪一区二区| 杨幂毛片午夜性生毛片| 日本免费a视频| 欧美激情国内自拍| 9久久9毛片又大又硬又粗| 亚洲一级免费在线观看| 99色这里只有精品| 性欧美在线视频| 国产成人av影视| 美国av在线播放| 色www免费视频| 免费大片在线观看| 国产色一区二区三区| 亚洲一二三av| 日本77777| 999精品视频在线| 播放灌醉水嫩大学生国内精品| 特黄特黄一级片| 亚洲制服中文字幕| 中日韩av在线播放| 搡女人真爽免费午夜网站| 国产91对白刺激露脸在线观看| 男人日女人的bb| 成人小视频在线观看免费| 亚洲高清在线不卡| 中文字幕精品一区二区三区在线| 欧美成人黑人猛交| 国产男女无遮挡| 亚洲乱码中文字幕久久孕妇黑人| 热久久最新网址| 欧美美女黄色网| 日韩精品免费一区| 国产肉体ⅹxxx137大胆| 女人色极品影院| 国产欧美精品aaaaaa片| 成人免费看片'免费看| 成人小视频在线观看免费| 日韩欧美不卡在线| 91看片就是不一样| 午夜视频你懂的| 911av视频| 成年人网站国产| 日韩欧美亚洲天堂| 三级视频中文字幕| 美国av在线播放| 国产 日韩 亚洲 欧美| 日韩a在线播放| 成人3d动漫一区二区三区| 色婷婷一区二区三区av免费看| 午夜免费一级片| 欧美狂野激情性xxxx在线观| 国产一区二区在线视频播放| 欧美黄网站在线观看| 激情五月俺来也| 日本一区二区三区四区五区六区| 国产二区视频在线| 污污网站在线观看视频| 精品一区二区成人免费视频| www.亚洲成人网| 国产视频1区2区3区| 国产日韩亚洲欧美在线| av五月天在线| 被灌满精子的波多野结衣| 一级在线免费视频| 青草视频在线观看视频| 欧美男女交配视频| 久久久久久久久久网| 三级视频中文字幕| www.99热这里只有精品| 一级片免费在线观看视频| www国产精品内射老熟女| 91香蕉视频免费看| 大肉大捧一进一出好爽动态图| 97超碰人人看| 国产一二三区av| 国产麻花豆剧传媒精品mv在线| 国产免费色视频| 国产aⅴ爽av久久久久| 国产xxxxx在线观看| 成人在线观看毛片| 午夜啪啪免费视频| wwwwww.色| 九色在线视频观看| 日韩成人手机在线| 成人手机在线播放| 三级在线免费观看| 免费成年人高清视频| 性猛交ⅹ×××乱大交| 国产真实乱子伦| 国产亚洲天堂网| 国产精品沙发午睡系列| 中文字幕无码精品亚洲资源网久久| 波多野结衣三级在线| 精品国产乱码久久久久久1区二区| www.日日操| 一级特黄性色生活片| 国产区二区三区| 久久国产这里只有精品| 91精产国品一二三产区别沈先生| 亚洲黄色a v| 日本国产一级片| 国产一区一区三区| 国产a级黄色大片| 欧美久久久久久久久久久久久| 黄色片网址在线观看| 国产在线青青草| 国产又粗又长又大的视频| 99蜜桃臀久久久欧美精品网站| 国产成人亚洲精品无码h在线| 国产主播自拍av| 日本va中文字幕| 日韩欧美精品在线观看视频| 欧美 日韩 激情| 日韩一区二区三区不卡视频| 尤物国产在线观看| 久久久成人精品一区二区三区 | 亚洲精品乱码久久久久久自慰| 日韩avxxx| 在线观看亚洲色图| 国内自拍中文字幕| 亚洲狼人综合干| 99亚洲精品视频| 91猫先生在线| 最新中文字幕久久| 黄色免费视频大全| 日本xxxx黄色| 中文字幕无码精品亚洲资源网久久| 女人另类性混交zo| 激情六月天婷婷| 日本人视频jizz页码69| 天天想你在线观看完整版电影免费| 日韩精品一区二区三区久久| 亚洲色图偷拍视频| 欧美日韩在线中文| 天天爱天天做天天操| 免费黄色一级网站| 人人干视频在线| 99re8这里只有精品| 天堂社区在线视频| 久久国产精品网| 穿情趣内衣被c到高潮视频| 日本一本二本在线观看| 日韩免费在线观看av| 午夜久久福利视频| 男人舔女人下面高潮视频| 日韩精品一区在线视频| 熟女视频一区二区三区| 亚洲综合av在线播放| 无码人妻丰满熟妇区五十路百度| 18黄暴禁片在线观看| 国产乱叫456| 污污的视频免费观看| www.久久久精品| 日韩精品一区二区三区色欲av| 很污的网站在线观看| 久久亚洲a v| 久久久久久av无码免费网站下载| 污免费在线观看| 亚洲天堂av一区二区三区| 日本久久久久久久久久久久| 免费无码国产v片在线观看| 国产九九九九九| 精品国产一二三四区| 日本中文字幕网址| 东京热加勒比无码少妇| 91av在线免费播放| 欧美大尺度做爰床戏| 亚洲人辣妹窥探嘘嘘|