아래 포스팅을 참조해 Spark를 설치한다.
Spark 설치 및 실행하기 - Local Mode
https://velog.io/@jskim/Spark-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EC%8B%A4%ED%96%89%ED%95%98%EA%B8%B0-Local-Mode
$SPARK_HOME/conf
로 이동하여 spark-env.sh.template
를 복사하여 spark-env.sh
파일을 만든다.
spark-env.sh
를 통해 다음과 같은 설정을 할 수 있다.
필자는 다음과 같이 설정하였다.
8040
할당$SPARK_HOME/sbin
의 start-master.sh
를 실행한다.
localhost:[PORT]
에 접속하면 Spark Master가 실행된 것을 확인할 수 있다.
다시 말해 이 화면이 Spark Standalone Cluster Manager 화면이다.
이 곳에서는 Cluster Machine에 대한 관리 현황을 알 수 있다.
Spark Job에 대한 모니터링은
localhost:4040
에서 확인할 수 있다.
맞다. Spark Local Mode에서 접근했던 Spark Web이다.
Cluster Manager 화면에서 실행 중인 Application 관련 정보를 따라가다보면 자동으로 Spark Web(localhost:4040
)으로 이동된다.
우선 Master URL을 복사한다.
이제 Worker를 실행한다
./start-worker.sh [Master URL]
Spark Web을 Refresh하면 spark-env.sh
에 설정한 것처럼 3개의 Worker가 실행되고, 각 2 Cores와 2GB Memory가 할당된 것을 확인할 수 있다.