Spark
之前Hadoop有架設過Spark,但那是使用Spark的Cluster架構,而在SMACK的架構理,Spark分工是架在Mesos上,部屬方式有差異。
Hadoop Server 分工內容
安裝Scala
先進入hadoop user
$ su hadoop下載Scala到hadoop User家目錄
$ wget https://downloads.lightbend.com/scala/2.12.6/scala-2.12.6.tgz
$ tar -zxvf scala-2.12.6.tgz
$ mv scala-2.12.6 scala設定必要環境變數
vi ~/.bashrc export SCALA_HOME=/home/hadoop/scala
export PATH=$SCALA_HOME/bin:$PATH檢查Scala版本號
安裝Spark
下載Spark 2.3.1到hadoop5 Server的hadoop User家目錄
設定必要環境變數
配置spark-env.sh
壓縮Spark到hadoop6 - 7
測試
Last updated