Spark

之前Hadoop有架設過Spark,但那是使用Spark的Cluster架構,而在SMACK的架構理,Spark分工是架在Mesos上,部屬方式有差異。

Hadoop Server 分工內容

  • hadoop1 Master

安裝Scala

先進入hadoop user

$ su hadoop

下載Scala到hadoop User家目錄

$ wget https://downloads.lightbend.com/scala/2.12.6/scala-2.12.6.tgz
$ tar -zxvf scala-2.12.6.tgz
$ mv scala-2.12.6 scala

設定必要環境變數

請在.bashrc新增以下環境變數內容

vi ~/.bashrc 

變數內容

export SCALA_HOME=/home/hadoop/scala
export PATH=$SCALA_HOME/bin:$PATH

使環境變數生效

檢查Scala版本號

安裝Spark

下載Spark 2.3.1到hadoop5 Server的hadoop User家目錄

要下載Source Code版本,原因是要打包沒有Hive版本的Spark

設定必要環境變數

請在.bashrc新增以下環境變數內容

變數內容

使環境變數生效

配置spark-env.sh

配置內容

壓縮Spark到hadoop6 - 7

測試

測試成功後可去mesos看每個Task的測試狀態

Last updated