Apache Spark 설치 하기
조대협 (http://bcho.tistory.com)
Spark 설치 하기
1. 스팍 홈페이지에서 다운로드.
다운로드시 Pre-built in Spark을 골라야 함. 여기서는 Hadoop 2.6용으로 빌드된 스팍을 선택한다.
2. 스팍 쉘을 실행 해보자
인스톨 디렉토리에서,
%./bin/pyspark
을 실행하면, 위와 같이 파이썬 기반의 스팍 쉘이 실행됨을 확인할 수 있다.
3. 로깅 레벨 조정 및 간단한 스팍 예제
디폴트 로깅은 INFO 레벨로 되어 있기 때문에, 쉘에서 명령어를 하나라도 실행하면 INFO 메세지가 우루루 나온다. (몬가 할때 결과 값보다, 오히려 INFO 메세지가 많이 나온다.)
그래서, conf/log4j.properties 파일을 conf/log4j.properties.templates 파일을 복사해서 만든후
log4j.rootCategory를 Info에서 WARN 레벨로 다음과 같이 수정한다.
log4j.rootCategory=WARN, console
환경 설정이 끝났으면 간단한 예제를 돌려보자
$SPARK_HOME 디렉토리에 있는 README.md 파일을 읽어서, 라인 수를 카운트 하는 예제이다.
스팍은 자체적으로 클러스터를 모니터링 할 수 있는 차체적인 Web UI가 있다.
http://localhost:4040에 접속하면 다음과 같이 스팍 클러스터에 대한 모니터링 화명을 얻을 수 있다.
'빅데이타 & 머신러닝 > 스트리밍 데이타 처리' 카테고리의 다른 글
Apache Spark 소개 - 스파크 스택 구조 (0) | 2015.05.22 |
---|---|
Apache Spark 클러스터 구조 (0) | 2015.05.18 |
Apache Spark이 왜 인기가 있을까? (7) | 2015.05.18 |
Apache Storm을 이용한 실시간 데이타 처리 #6 –Storm 그룹핑 개념 이해하기 (0) | 2015.01.29 |
Apache Storm을 이용한 실시간 데이타 처리 #5 –Storm의 병렬/분산 처리 (0) | 2015.01.25 |