gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区

站長資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

搭建Spark高可用集群

Spark簡介

官網(wǎng)地址:http://spark.apache.org/

搭建Spark高可用集群

Apache Spark™是用于大規(guī)模數(shù)據(jù)處理的統(tǒng)一分析引擎。

從右側(cè)最后一條新聞看,Spark也用于AI人工智能 spark是一個實現(xiàn)快速通用的集群計算平臺。它是由加州大學(xué)伯克利分校AMP實驗室 開發(fā)的通用內(nèi)存并行計算框架,用來構(gòu)建大型的、低延遲的數(shù)據(jù)分析應(yīng)用程序。它擴(kuò)展了廣泛使用的MapReduce計算 模型。高效的支撐更多計算模式,包括交互式查詢和流處理。spark的一個主要特點是能夠在內(nèi)存中進(jìn)行計算,及時依賴磁盤進(jìn)行復(fù)雜的運(yùn)算,Spark依然比MapReduce更加高效。

為什么要學(xué)Spark

中間結(jié)果輸出:基于MapReduce的計算引擎通常會將中間結(jié)果輸出到磁盤上,進(jìn)行存儲和容錯。出于任務(wù)管道承接的,考慮,當(dāng)一些查詢翻譯到MapReduce任務(wù)時,往往會產(chǎn)生多個Stage,而這些串聯(lián)的Stage又依賴于底層文件系統(tǒng)(如HDFS)來存儲每一個Stage的輸出結(jié)果。 Spark是MapReduce的替代方案,而且兼容HDFS、Hive,可融入Hadoop的生態(tài)系統(tǒng),以彌補(bǔ)MapReduce的不足。

Spark的四大特性

高效性

運(yùn)行速度提高100倍。 Apache Spark使用最先進(jìn)的DAG調(diào)度程序,查詢優(yōu)化程序和物理執(zhí)行引擎,實現(xiàn)批量和流式數(shù)據(jù)的高性能。

易用性

Spark支持Java、Python和Scala的API,還支持超過80種高級算法,使用戶可以快速構(gòu)建不同的應(yīng)用。而且Spark支持交互式的Python和Scala的shell,可以非常方便地在這些shell中使用Spark集群來驗證解決問題的方法。

通用性

Spark提供了統(tǒng)一的解決方案。Spark可以用于批處理、交互式查詢(Spark SQL)、實時流處理(Spark Streaming)、機(jī)器學(xué)習(xí)(Spark MLlib)和圖計算(GraphX)。這些不同類型的處理都可以在同一個應(yīng)用中無縫使用。Spark統(tǒng)一的解決方案非常具有吸引力,畢竟任何公司都想用統(tǒng)一的平臺去處理遇到的問題,減少開發(fā)和維護(hù)的人力成本和部署平臺的物力成本。

兼容性

Spark可以非常方便地與其他的開源產(chǎn)品進(jìn)行融合。比如,Spark可以使用Hadoop的YARN和Apache Mesos作為它的資源管理和調(diào)度器,器,并且可以處理所有Hadoop支持的數(shù)據(jù),包括HDFS、HBase和Cassandra等。這對于已經(jīng)部署Hadoop集群的用戶特別重要,因為不需要做任何數(shù)據(jù)遷移就可以使用Spark的強(qiáng)大處理能力。Spark也可以不依賴于第三方的資源管理和調(diào)度器,它實現(xiàn)了Standalone作為其內(nèi)置的資源管理和調(diào)度框架,這樣進(jìn)一步降低了Spark的使用門檻,使得所有人都可以非常容易地部署和使用Spark。此外,Spark還提供了在EC2上部署Standalone的Spark集群的工具。

Mesos:Spark可以運(yùn)行在Mesos里面(Mesos 類似于yarn的一個資源調(diào)度框架) standalone:Spark自己可以給自己分配資源(master,worker) YARN:Spark可以運(yùn)行在yarn上面 Kubernetes:Spark接收 Kubernetes的資源調(diào)度

Spark的組成

Spark組成(BDAS):全稱伯克利數(shù)據(jù)分析棧,通過大規(guī)模集成算法、機(jī)器、人之間展現(xiàn)大數(shù)據(jù)應(yīng)用的一個平臺。也是處理大數(shù)據(jù)、云計算、通信的技術(shù)解決方案。

它的主要組件有:

SparkCore:將分布式數(shù)據(jù)抽象為彈性分布式數(shù)據(jù)集(RDD),實現(xiàn)了應(yīng)用任務(wù)調(diào)度、RPC、序列化和壓縮,并為運(yùn)行在其上的上層組件提供API。

SparkSQL:Spark Sql 是Spark來操作結(jié)構(gòu)化數(shù)據(jù)的程序包,可以讓我使用SQL語句的方式來查詢數(shù)據(jù),Spark支持 多種數(shù)據(jù)源,包含Hive表,parquest以及JSON等內(nèi)容。

SparkStreaming: 是Spark提供的實時數(shù)據(jù)進(jìn)行流式計算的組件。

MLlib:提供常用機(jī)器學(xué)習(xí)算法的實現(xiàn)庫。

GraphX:提供一個分布式圖計算框架,能高效進(jìn)行圖計算。

BlinkDB:用于在海量數(shù)據(jù)上進(jìn)行交互式SQL的近似查詢引擎。

Tachyon:以內(nèi)存為中心高容錯的的分布式文件系統(tǒng)。

應(yīng)用場景

Yahoo將Spark用在Audience Expansion中的應(yīng)用,進(jìn)行點擊預(yù)測和即席查詢等 淘寶技術(shù)團(tuán)隊使用了Spark來解決多次迭代的機(jī)器學(xué)習(xí)算法、高計算復(fù)雜度的算法等。應(yīng)用于內(nèi)容推薦、社區(qū)發(fā)現(xiàn)等 騰訊大數(shù)據(jù)精準(zhǔn)推薦借助Spark快速迭代的優(yōu)勢,實現(xiàn)了在“數(shù)據(jù)實時采集、算法實時訓(xùn)練、系統(tǒng)實時預(yù)測”的全流程實時并行高維算法,最終成功應(yīng)用于廣點通pCTR投放系統(tǒng)上。 優(yōu)酷土豆將Spark應(yīng)用于視頻推薦(圖計算)、廣告業(yè)務(wù),主要實現(xiàn)機(jī)器學(xué)習(xí)、圖計算等迭代計算。

spark安裝

上傳spark-安裝包到Linux上

[root@hdp-01 ~]# wget https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.7.tgz
[root@hdp-01 ~]# tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz -C apps/
[root@hdp-01 apps]# mv spark-2.2.0-bin-hadoop2.7 /spark

進(jìn)入conf目錄并重命名并修改spark-env.sh.template文件

[root@hdp-01 conf]# mv spark-env.sh.template spark-env.sh  [root@hdp-01 conf]# vi spark-env.sh

在該配置文件中添加如下配置

export JAVA_HOME=/root/apps/jdk1.8.0_152  export SPARK_MASTER_IP=hdp-01  export SPARK_MASTER_PORT=7077

重命名并修改slaves.template文件

[root@hdp-01 conf]# mv slaves.template slaves  [root@hdp-01 conf]# vi slaves

在該文件中添加子節(jié)點所在的位置(Worker節(jié)點)

hdp-02  hdp-03
hdp-04

將配置好的Spark拷貝到其他節(jié)點上

[root@hdp-01 apps]# scp -r spark/ hdp-02:$PWD  [root@hdp-01 apps]# scp -r spark/ hdp-03:$PWD
[root@hdp-01 apps]# scp -r spark/ hdp-04:$PWD

Spark集群配置完畢,目前是1個Master,3個Work,在hdp-01上啟動Spark集群

[root@hdp-01 spark]# sbin/start-all.sh

啟動后執(zhí)行jps命令,主節(jié)點上有Master進(jìn)程,其他子節(jié)點上有Work進(jìn)程,登錄Spark管理界面查看集群狀態(tài)(主節(jié)點): http://hdp-01:8080/

搭建Spark高可用集群

到此為止,Spark集群安裝完畢,但是有一個很大的問題,那就是Master節(jié)點存在單點故障,要解決此問題,就要借助zookeeper,并且啟動至少兩個Master節(jié)點來實現(xiàn)高可靠

配置Spark集群之前一定要把zookper集群啟動

Spark集群規(guī)劃:hdp-01,hdp-02是Master;hdp-03,hdp-04是Worker 安裝配置zk集群,并啟動zk集群 停止spark所有服務(wù)

集群中Master地址是不固定的 所以必須把export SPARK_MASTER_IP=hdp-01 注釋掉

[root@hdp-01 sbin]# ./stop-all.sh  [root@hdp-01 conf]# vi spark-env.sh    export JAVA_HOME=/root/apps/jdk1.8.0_152  #export SPARK_MASTER_IP=hdp-01  export SPARK_MASTER_PORT=7077  export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER  -Dspark.deploy.zookeeper.url=hdp-01:2181,hdp-02:2181,hdp-03:2181 -Dspark.deploy.zookeeper.dir=/spark"    [root@hdp-01 conf]#scp -r spark-env.sh/ hdp-02:$PWD  [root@hdp-01 conf]#scp -r spark-env.sh/ hdp-03:$PWD  [root@hdp-01 conf]#scp -r spark-env.sh/ hdp-04:$PWD  [root@hdp-01 sbin]# ./start-all.sh
// 啟動hdp-02上的master,如果hdp-01宕機(jī) hdp-02會有worker變?yōu)?span>master
[root@hdp-02 spark]# sbin/start-master.sh

測試集群部署

打開瀏覽器  輸入        http://hdp-01:8080/  http://hdp-02:8080/

搭建Spark高可用集群

搭建Spark高可用集群

 standby:備用狀態(tài)

現(xiàn)在停掉hdp-01上的Master

[root@hdp-01 sbin]# jps  35473 Master  1682 NameNode  15109 NodeManager  35575 Jps  2200 SecondaryNameNode  14984 ResourceManager  14636 QuorumPeerMain  1839 DataNode  [root@hdp-01 sbin]# kill -9  35473

搭建Spark高可用集群

hdp-02接替hdp-01工作 從Master變?yōu)閃orker  如果現(xiàn)在再啟動 hdp-01 hdp-01為從節(jié)點 不會變?yōu)橹鞴?jié)點 

如果hdp-02發(fā)生故障后 hdp-01就會自動變成Master

Spark Shell

spark-shell是Spark自帶的交互式Shell程序,方便用戶進(jìn)行交互式編程,用戶可以在該命令行下用scala編寫spark程序。

啟動spark shell

[root@hdp-01 spark]# bin/spark-shell --master spark:/hdp-01:7077 --executor-memory 1g --total-executor-cores 1

搭建Spark高可用集群

出現(xiàn)此logo證明spark shell 啟動成功

集群模式下啟動spark shell

[root@hdp-01 spark]# bin/spark-shell --master spark://hdp-01:7077,hdp-04:7077

注意: 如果啟動spark shell時沒有指定master地址,但是也可以正常啟動spark shell和執(zhí)行spark shell中的程序,其實是啟動了spark的local模式,該模式僅在本機(jī)啟動一個進(jìn)程,沒有與集群建立聯(lián)系。 Spark Shell中已經(jīng)默認(rèn)將SparkContext類初始化為對象sc。用戶代碼如果需要用到,則直接應(yīng)用sc即可

Spark控制臺有一個Running Applications 也就是剛剛啟動的spark shell

 執(zhí)行Spark程序

Spark程序求圓周率

[root@hdp-01 spark]# bin/spark-submit --master spark://hdp-01:7077 --class org.apache.spark.examples.SparkPi  --executor-memory 1G --total-executor-cores 1 examples/jars/spark-examples_2.11-2.2.0.jar 100

搭建Spark高可用集群

[root@hdp-01 spark]# bin/spark-submit –class org.apache.spark.examples.SparkPi –master spark://hdp-01:7077 examples/jars/spark-examples_2.11-2.2.0.jar 100

參數(shù)說明: –master spark://hdp-01:7077 指定Master的地址 –executor-memory 1G 指定每個worker可用內(nèi)存為1G –total-executor-cores 1 指定整個集群使用的cup核數(shù)為1

集群模式執(zhí)行spark程序

[root@hdp-01 spark]# bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://hdp-01:7077,hdp-04:7077 --executor-memory 1G --total-executor-cores 2 examples/jars/spark-examples_2.11-2.2.0.jar 100

spark shell中編寫WordCount程序

啟動hdfs 上傳單詞文件到hdfs中

[root@hdp-01 ~]# start-all.sh  [root@hdp-01 ~]# vi spark.txt    helo java  hello spark  hello hdfs  hello yarn  yarn hdfs    [root@hdp-01 ~]# hadoop fs -mkdir -p /spark  [root@hdp-01 ~]# hadoop fs -put spark.txt /spark

spark shell 執(zhí)行任務(wù)

scala> sc.textFile("hdfs://hdp-01:9000/spark").flatMap(split(" ")).map((,1)).reduceByKey(+).collect

將結(jié)果輸出到hdfs中

scala> sc.textFile("hdfs://hdp-01:9000/spark").flatMap(.split(" ")).map((,1)).reduceByKey(+).saveAsTextFile("hdfs://hdp-01:9000/outText")  2019-06-25 Comments   

贊(0)
分享到: 更多 (0)
?
網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號
gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区
日本丰满少妇xxxx| 免费看污污视频| 国产一区二区网| 日本黄大片在线观看| 国风产精品一区二区| 国产美女视频免费| 欧美中文字幕在线观看视频| 日本a在线天堂| 国产xxxx振车| 青青在线视频免费| 免费激情视频在线观看| 在线观看免费视频高清游戏推荐| 成年人在线看片| 成人亚洲免费视频| 在线视频一二三区| 免费国产黄色网址| 在线观看av网页| 青青草免费在线视频观看| 亚洲色欲久久久综合网东京热| 欧美大片在线播放| 91视频免费版污| 欧美黄色免费网址| 北条麻妃av高潮尖叫在线观看| 深夜黄色小视频| 肉大捧一出免费观看网站在线播放| av在线播放亚洲| 污污的视频免费观看| 久久精品无码中文字幕| 自拍偷拍21p| 日本黄色片一级片| 在线看的黄色网址| 日韩a∨精品日韩在线观看| 天天操天天爱天天爽| 福利在线一区二区| 一区二区三区欧美精品| 国产自产在线视频| 成人av毛片在线观看| 国产男女在线观看| 成人高清dvd| 亚洲高清视频免费| 国产成人精品无码播放| 亚洲色欲久久久综合网东京热| 天天色综合天天色| 无码专区aaaaaa免费视频| 亚洲一二三av| 老司机午夜av| 欧美日韩亚洲第一| 成人在线播放网址| 4444在线观看| 国产av不卡一区二区| 激情五月婷婷久久| 欧美在线观看视频网站| 三上悠亚久久精品| 欧美中日韩在线| 青青草综合在线| 天堂av在线中文| 一二三四中文字幕| 性生活免费观看视频| 操人视频免费看| 日本高清免费在线视频| 久久久久久久久久一区二区| 9久久婷婷国产综合精品性色| 黄色网页免费在线观看| 人妻夜夜添夜夜无码av| 阿v天堂2018| 久草热视频在线观看| 欧美 日韩 国产在线观看| 男女猛烈激情xx00免费视频| 黄页免费在线观看视频| 免费无码国产v片在线观看| 黄色片视频在线免费观看| 日本wwww视频| 日日干夜夜操s8| 9l视频自拍9l视频自拍| 青青青青在线视频| 国产日韩一区二区在线观看| 毛片av免费在线观看| 做a视频在线观看| 成人毛片100部免费看| 成人精品视频在线播放| 色诱视频在线观看| 特级西西444www| 成人一级生活片| 黑人粗进入欧美aaaaa| 特级黄色录像片| 国产日韩一区二区在线| 午夜av中文字幕| 欧美一级片免费播放| 美女少妇一区二区| 大荫蒂性生交片| 五月婷婷丁香综合网| 国产资源第一页| 日韩一级免费在线观看| 四虎免费在线观看视频| 欧美精品一区免费| 免费在线观看污网站| 久久99久久99精品| 国产成人综合一区| 国产毛片视频网站| 国产a级片免费观看| 青少年xxxxx性开放hg| 国产二区视频在线| 国产乱码一区二区三区四区| 99在线精品免费视频| aaa一级黄色片| 国产xxxxx视频| 欧美中文字幕在线观看视频 | 国产精品成人久久电影| 在线观看的毛片| 国产精品免费入口| 97久久国产亚洲精品超碰热| 亚洲一区二区三区四区五区| 精品无码国模私拍视频| 91麻豆天美传媒在线| 亚洲涩涩在线观看| 日韩亚洲在线视频| 国产美女三级视频| 青青艹视频在线| 国产va亚洲va在线va| 女同性恋一区二区| 国产精品久久久久久9999| 国产福利影院在线观看| 人妻少妇被粗大爽9797pw| 777av视频| 欧美视频在线观看视频 | 免费不卡av在线| 18视频在线观看娇喘| 天天操夜夜操很很操| 亚洲制服在线观看| 午夜不卡福利视频| 91插插插影院| 一级网站在线观看| 亚洲免费视频播放| 91免费版看片| 大伊香蕉精品视频在线| www黄色日本| 男女视频一区二区三区| 少妇黄色一级片| 亚洲日本黄色片| 毛片在线视频观看| 毛片在线播放视频| 久久久久免费精品| 日本免费观看网站| 午夜视频在线观| 奇米777四色影视在线看| 亚洲理论电影在线观看| 久久久噜噜噜www成人网| 成人三级视频在线播放| 97人人爽人人| 国产爆乳无码一区二区麻豆| 你懂的av在线| 天堂网在线免费观看| 污免费在线观看| 成年人看的毛片| 欧美伦理片在线观看| 免费观看中文字幕| 凹凸国产熟女精品视频| 日韩va在线观看| 少妇高潮喷水在线观看| 制服丝袜综合网| 日韩精品在线视频免费观看| 粗暴91大变态调教| 欧美做暖暖视频| www.超碰com| 国产人妻777人伦精品hd| 国产精品区在线| 精品中文字幕av| 三年中国中文在线观看免费播放| 免费看日本毛片| 成年丰满熟妇午夜免费视频 | 欧美婷婷精品激情| 无码专区aaaaaa免费视频| 久久人人爽av| 免费成人在线视频网站| 色婷婷777777仙踪林| 亚洲免费av一区二区三区| 99在线免费视频观看| 欧美日韩在线免费观看视频| 熟妇人妻va精品中文字幕| 国产中文字幕乱人伦在线观看| 亚洲图色中文字幕| 日本久久精品一区二区| 成人免费观看cn| 无码熟妇人妻av在线电影| 亚洲高清av一区二区三区| 高清一区在线观看| 成人精品视频一区二区| 日韩黄色短视频| www.国产在线视频| 中国女人做爰视频| 好吊色视频988gao在线观看| 亚洲一级片免费观看| 污污的视频免费观看| 亚洲免费一级视频| 日韩av片网站| www.51色.com| 免费观看中文字幕| 欧美 亚洲 视频| 777av视频| 中文字幕无码不卡免费视频|