gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区

站長資訊網
最全最豐富的資訊網站

Hadoop2.5.0偽分布式環境搭建

本章主要介紹下在Linux系統下的Hadoop2.5.0偽分布式環境搭建步驟。首先要搭建Hadoop偽分布式環境,需要完成一些前置依賴工作,包括創建用戶、安裝JDK、關閉防火墻等。

一、創建hadoop用戶

使用root賬戶創建hadoop用戶,為了在實驗環境下便于操作,賦予hadoop用戶sudo權限。具體操作代碼如下:

useradd hadoop # 添加hadoop用戶
passwd hadoop # 設置密碼
visudo
hadoop ALL=(root)NOPASSWD:ALL

二、Hadoop偽分布式環境搭建

1、關閉Linux中的防火墻和selinux

禁用selinux,代碼如下:

sudo vi /etc/sysconfig/selinux # 打開selinux配置文件
SELINUX=disabled # 修改SELINUX屬性值為disabled

關閉防火墻,代碼如下:

sudo service iptables status # 查看防火墻狀態
sudo service iptables stop # 關閉防火墻
sudo chkconfig iptables off # 關閉防火墻開機啟動設置

2、安裝jdk

首先,查看系統中是否有安裝自帶的jdk,如果存在,則先卸載,代碼如下:

rpm -qa | grep java # 查看是否有安裝jdk
sudo rpm -e –nodeps java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.x86_64 tzdata-java-2012j-1.el6.noarch java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.x86_64 # 卸載自帶jdk

接著,安裝jdk,步驟如下:

step1.解壓安裝包:

tar -zxf jdk-7u67-linux-x64.tar.gz -C /usr/local/

step2.配置環境變量及檢查是否安裝成功:

sudo vi /etc/profile # 打開profile文件
##JAVA_HOME
export JAVA_HOME=/usr/local/jdk1.7.0_67
export PATH=$PATH:$JAVA_HOME/bin

# 生效文件
source /etc/profile # 使用root用戶操作

# 查看是否配置成功
java -version

3、安裝hadoop

step1:解壓hadoop安裝包

tar -zxvf /opt/software/hadoop-2.5.0.tar.gz -C /opt/software/

建議:將/opt/software/hadoop-2.5.0/share下的doc目錄刪除。

step2:修改etc/hadoop目錄下hadoop-env.sh、mapred-env.sh、yarn-env.sh三個配置文件中的JAVA_HOME

export JAVA_HOME=/usr/local/jdk1.7.0_67

step3:修改core-site.xml

<?xml version=”1.0″ encoding=”UTF-8″?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<!–
  Licensed under the Apache License, Version 2.0 (the “License”);
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an “AS IS” BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
–>

<!– Put site-specific property overrides in this file. –>

<configuration>
    <property>
        <name>name</name>
        <value>my-study-cluster</value>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://bigdata01:8020</value>
    </property>
        <!– 指定Hadoop系統生成文件的臨時目錄地址 –>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/software/hadoop-2.5.0/data/tmp</value>
    </property>
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>hadoop</value>
    </property>
        <property>
                <name>hadoop.proxyuser.hadoop.hosts</name>
                <value>bigdata01</value>
        </property>
        <property>
                <name>hadoop.proxyuser.hadoop.groups</name>
                <value>*</value>
        </property>
</configuration>

step4:修改hdfs-site.xml

<?xml version=”1.0″ encoding=”UTF-8″?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<!–
  Licensed under the Apache License, Version 2.0 (the “License”);
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an “AS IS” BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
–>

<!– Put site-specific property overrides in this file. –>

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/software/hadoop-2.5.0/data/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/software/hadoop-2.5.0/data/data</value>
    </property>
</configuration>

step5:修改mapred-site.xml

<?xml version=”1.0″?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<!–
  Licensed under the Apache License, Version 2.0 (the “License”);
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an “AS IS” BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
–>

<!– Put site-specific property overrides in this file. –>

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>bigdata01:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>bigdata01:19888</value>
    </property>
</configuration>

step6:修改yarn-site.xml

<?xml version=”1.0″?>
<!–
  Licensed under the Apache License, Version 2.0 (the “License”);
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an “AS IS” BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
–>
<configuration>

<!– Site specific YARN configuration properties –>

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>bigdata01</value>
    </property>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>106800</value>
    </property>
    <property>
        <name>yarn.log.server.url</name>
        <value>http://bigdata01:19888/jobhistory/job/</value>
    </property>
</configuration>

step7:修改slaves文件

bigdata01

step8:格式化namenode

bin/hdfs namenode -format

step9:啟動進程

## 方式一:單獨啟動一個進程
# 啟動namenode
sbin/hadoop-daemon.sh start namenode
# 啟動datanode
sbin/hadoop-daemon.sh start datanode
# 啟動resourcemanager
sbin/yarn-daemon.sh start resourcemanager
# 啟動nodemanager
sbin/yarn-daemon.sh start nodemanager
# 啟動secondarynamenode
sbin/hadoop-daemon.sh start secondarynamenode
# 啟動歷史服務器
sbin/mr-jobhistory-daemon.sh start historyserver

## 方式二:
sbin/start-dfs.sh # 啟動namenode、datanode、secondarynamenode
sbin/start-yarn.sh # 啟動resourcemanager、nodemanager
sbin/mr-jobhistory-daemon.sh start historyserver # 啟動歷史服務器

step10:檢查

1.通過瀏覽器訪問HDFS的外部UI界面,加上外部交互端口號:50070

  http://bigdata01:50070

2.通過瀏覽器訪問YARN的外部UI界面,加上外部交互端口號:8088

  http://bigdata01:8088

3.執行Wordcount程序

  bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount input output

  注:輸入輸出目錄自定義

結束!

以上為Hadoop2.5.0偽分布式環境搭建步驟,如有問題,請指出,謝謝!

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区
可以免费观看av毛片| 色综合五月婷婷| 97超碰人人爱| 三级一区二区三区| 中文字幕成人免费视频| www欧美激情| 亚洲高清在线免费观看| 久久久国产欧美| 亚洲xxxx2d动漫1| 中文字幕在线综合| 日韩不卡一二三| 色偷偷中文字幕| 男人天堂新网址| 国产一区二区视频播放| 国产男女无遮挡| 在线免费av播放| youjizz.com亚洲| 18禁网站免费无遮挡无码中文 | 国产性生活一级片| 性鲍视频在线观看| 国产黄色激情视频| 欧美性久久久久| 黄色一级片免费的| 黑人巨茎大战欧美白妇| 国产免费毛卡片| 一区二区三区四区毛片| 欧美图片激情小说| 亚洲第一中文av| 400部精品国偷自产在线观看| 青青草国产免费| 国产高潮免费视频| 草b视频在线观看| 免费涩涩18网站入口| 肉大捧一出免费观看网站在线播放| 久久99久久99精品| 鲁一鲁一鲁一鲁一av| 久久人妻无码一区二区| 国产精品涩涩涩视频网站| 青娱乐国产精品视频| 国产裸体舞一区二区三区| 99精品一区二区三区的区别| 欧美牲交a欧美牲交aⅴ免费真| 亚洲天堂av一区二区三区| 无码aⅴ精品一区二区三区浪潮 | 欧美在线aaa| 2018中文字幕第一页| 国产成人美女视频| 毛片av免费在线观看| 超级碰在线观看| aaa一级黄色片| mm1313亚洲国产精品无码试看| 久久观看最新视频| 亚洲成人天堂网| 99久久国产宗和精品1上映| 91免费国产精品| 丰满女人性猛交| 两性午夜免费视频| 91欧美视频在线| 欧美女同在线观看| 精品久久久噜噜噜噜久久图片| 国产无限制自拍| www精品久久| 日韩一级免费看| 黄色一级片国产| av在线com| 日本中文字幕网址| 真人抽搐一进一出视频| 国产精品又粗又长| 丁香六月激情婷婷| 男的插女的下面视频| 国产freexxxx性播放麻豆| 成年女人18级毛片毛片免费| 久久香蕉视频网站| 男的插女的下面视频| 日韩国产欧美亚洲| 99999精品视频| 99视频在线视频| 亚洲精品www.| 精品国产无码在线| 欧美激情视频免费看| www.四虎成人| 国产高清999| 日韩在线视频在线| 好吊妞无缓冲视频观看| 四季av一区二区| 亚洲高清av一区二区三区| 成人午夜免费剧场| 漂亮人妻被中出中文字幕| 婷婷六月天在线| 黄色成人在线免费观看| 色欲av无码一区二区人妻| 一本色道久久亚洲综合精品蜜桃| 午夜视频在线观| 欧美这里只有精品| 超碰影院在线观看| 成人免费看片视频在线观看| 日本国产在线播放| 国产高清999| 男女曰b免费视频| 国产91av视频在线观看| 国产精品333| 亚欧美一区二区三区| av动漫免费看| 免费特级黄色片| 人人爽人人爽av| 久久午夜夜伦鲁鲁一区二区| 久久国产精品免费观看| 日韩中文字幕二区| 东北少妇不带套对白| 狠狠躁狠狠躁视频专区| 亚洲人精品午夜射精日韩| 日韩高清第一页| 免费激情视频在线观看| 免费高清一区二区三区| 色香蕉在线观看| 最新国产黄色网址| 欧美牲交a欧美牲交aⅴ免费下载| 亚洲国产一二三精品无码 | 香蕉视频禁止18| 成年人免费在线播放| 久久这里只有精品23| 久久人妻无码一区二区| 婷婷中文字幕在线观看| 亚洲欧美日韩精品一区| 狠狠操狠狠干视频| 在线看免费毛片| 天天综合网日韩| 中文字幕在线综合| 国产天堂在线播放| 91热这里只有精品| 一区二区三区国产免费| 99视频免费播放| 免费在线观看的毛片| 欧美一级黄色影院| 少妇人妻互换不带套| 午夜精品久久久内射近拍高清| 久在线观看视频| 久久久精品在线视频| 香蕉视频禁止18| 亚洲第一天堂久久| 中文字幕制服丝袜在线| xxxxxx在线观看| 又粗又黑又大的吊av| 狠狠爱免费视频| 538任你躁在线精品免费| 亚洲另类第一页| 亚洲av综合色区| 成人在线免费在线观看| 91制片厂毛片| 狠狠精品干练久久久无码中文字幕 | 欧美一级视频在线| 中国 免费 av| 国产毛片视频网站| jizz大全欧美jizzcom| 肉色超薄丝袜脚交| wwwwww欧美| 少妇激情一区二区三区| 色中文字幕在线观看| 给我免费播放片在线观看| 成人黄色一区二区| 亚洲高潮无码久久| 国产真实乱子伦| 欧美亚洲色图视频| 亚洲最大综合网| 国产毛片久久久久久国产毛片 | 亚洲精品在线视频播放| 久久99久久99精品| 在线免费黄色网| 99蜜桃臀久久久欧美精品网站| 精品久久免费观看| 成人性做爰aaa片免费看不忠| 夜夜爽久久精品91| 看欧美ab黄色大片视频免费| 成人免费在线视频播放| 99sesese| 少妇性l交大片| 欧美啪啪免费视频| 国产香蕉一区二区三区| 天天操天天爽天天射| 亚洲 高清 成人 动漫| 成年人黄色在线观看| 91极品尤物在线播放国产| 国内精品视频一区二区三区| 国产高清精品软男同| 国产精品区在线| 久久网站免费视频| 99久热在线精品视频| 艳母动漫在线观看| 图片区乱熟图片区亚洲| 亚洲小视频网站| www.涩涩涩| 好男人www社区| 日本久久精品一区二区| 久章草在线视频| 日韩毛片在线免费看| 免费日韩中文字幕| 国产男女无遮挡| 天天操,天天操| 日韩精品aaa| 欧美爱爱视频网站|