top of page
APACHE SPARK TRAINING FOR DEVELOPERS
Feb 2~3, 7~8 2017
안녕하세요. 당사 교육 등록 페이지에 방문해 주시어 감사드립니다.
2월 2~3, 7~8 일정으로 개최되는 아파치 스파크 교육에 대해서 신청바랍니다.
교육당일 9:00am 부터 on-site 결재를 실행하겠습니다.
APACHE SPARK TRAINING FOR DEVELOPERS
Feb. 2~3, 7~8 2017
과정 설명
-
Apache Hadoop 클러스터로 데이터를 가져와 Spark, Hive, Flume, Sqoop, Impala 및 기타 Hadoop 에코 시스템 도구로 데이타 처리하는 방법을 배워 보세요.. 4 일간의 교육과 실습 과정을 통해 참가자들에게 가장 최근의 도구와 기법을 사용하여 Hadoop 클러스터에서 데이터를 수집하고 처리하는 데 필요한 핵심 개념과 전문 지식을 제공합니다.
-
이 교육 과정은 Hadoop 개발자가 직면 한 실제 과제에 대한 최상의 준비 과정입니다. 참가자는 실습 과정에서 Spark, Hive, Flume, Sqoop, Impala 및 기타 Hadoop 에코 시스템 도구들을 직접 사용하여 특정 상황에서 어떤 도구를 사용할 것인지 파악하고 최상의 해당 도구 선택에 경험을 샇게됩니다.
수강 대상
-
이 과정은 프로그래밍 경험이있는 개발자와 엔지니어를 대상으로합니다.
-
Apache Spark 예제 및 실제 연습은 Scala와 Python으로 제공되므로 해당 언어 중 하나로 기본적인 프로그래밍 경험이나 사전 review를 하시고 오시면 좋습니다
-
Linux 명령 행에 대한 기본 지식이 있다고 가정합니다.
-
SQL에 대한 기본 지식이 도움 됩니다.
-
Hadoop에 대한 사전 지식은 필요하지 않습니다.
커리큘럼
-
DAY 1
-
Apache Hadoop 및 Hadoop 에코 시스템 소개
-
Apache Hadoop 파일 저장 시스템
-
Apache Hadoop Cluster에서의 데이터 처리
-
Apache Sqoop을 사용하여 관계형 데이터 가져 오기
-
Apache Spark 기본 사항
-
DAY 2
-
RDD 정의 및 사용 방법
-
Pair RDD 로 데이터 집계
-
Apache Spark 애플리케이션 작성 및 실행
-
Apache Spark 애플리케이션 구성하기
-
Apache Spark의 분산병렬 처리
-
DAY 3
-
RDD 지속성
-
Apache Spark 데이터 처리의 공통 패턴
-
Apache Kafka로 메시지 처리하기
-
Data Frame 과 Apache Spark SQL
-
DAY 4
-
Apache Flume으로 데이터 수집하기
-
Apache Flume과 Apache Kafka의 통합
-
Apache Spark Streaming : DStream 소개
-
Apache Spark Streaming : 여러 배치 처리
-
Apache Spark Streaming : 데이터 소스
교육 금액
-
2,200,000 원 (VAT 포함)
교육 일정
-
2017-02-02, 03 오전 9:30 ~ 오후 5:30
-
2017-02-07, 08 오전 9:30 ~ 오후 5:30
교육 장소
-
판교 삼환하이펙스 B동 10층
Register
bottom of page