架設Spark
Hadoop Server 分工內容
配置Hadoop1、3、4
配置Scala
$ wget https://downloads.lightbend.com/scala/2.12.6/scala-2.12.6.tgz
$ tar -zxvf scala-2.12.6.tgz
$ mv scala-2.12.6 scala設定必要環境變數
vi ~/.bashrc export SCALA_HOME=/home/hadoop/scala
export PATH=$SCALA_HOME/bin:$PATH
export SPARK_HOME=/home/hadoop/spark
export PATH=$SPARK_HOME/bin:$PATH檢查Scala版本號
安裝Spark
下載Spark 2.3.1到Hadoop1 Server的hadoop User家目錄
配置spark-env.sh
配置slaves
將Spark從hadoop1 Server複製到其他Server的hadoop User家目錄
啟動Spark
測試
瀏覽hadoop1 Spark網站
在hadoop1 Server測試單機執行圓周率任務
在hadoop1 Server測試獨立Spark集群模式執行圓周率任務
在hadoop1 Server測試yarn-cluster集群模式執行圓周率任務
Last updated