Data Platform Engineer
직군Engineer
경력사항경력 7년 이상
고용형태정규직
근무지서울특별시 관악구 남부순환로 1836, 7층, 8층

[합류하게 될 팀]

  • Data Platform Engineer는 Data Team에 속해 있습니다.
  • Data Team은 데이터 기반 의사결정과 데이터 제품을 통해 모든 가격의 비효율을 혁신하고, 고객과 판매자를 더욱 효율적으로 연결합니다.
  • 레브잇의 모든 구성원은 누군가에게 업무를 지시하는 것이 아니라, 목표를 위해 각자 협업하며 업무하고 있습니다.


[합류하면 함께 할 업무]

  • 대용량 ETL 데이터 파이프라인을 구축 및 운영합니다.
  • 대용량 데이터를 분석 및 실험하는 플랫폼과 애플리케이션 개발을 담당합니다.
  • 데이터의 이상을 탐지하고 알리는 플랫폼과 애플리케이션 개발을 담당합니다.


[자격 요건]

  • 대용량 데이터 파이프라인의 구축, 개발 경험이 있으신 분이 필요합니다.
  • 빅데이터 프레임워크 (Hadoop, Kafka, Spark, Flink 등)의 활용 경험이 있으신 분이 필요합니다.
  • 워크플로우 (airflow, luigi 등)의 구축, 개발 경험이 있으신 분이 필요합니다.


[우대 사항]

  • 개인화 추천 또는 광고 데이터 파이프라인 구축 및 운영 경험이 있으신 분을 선호합니다.
  • 데이터 분석 플랫폼 구축 및 운영 경험이 있으신 분을 선호합니다.
  • 백엔드 (python, scala, kotlin) 개발 경험이 있으신 분을 선호합니다.
  • Capture Data Change (debezium 등)의 파이프라인 구축, 개발 경험이 있으신 분을 선호합니다.
  • AWS 기반의 인프라 (EMR, EKS, athena, 등) 구축, 개발 경험이 있으신 분을 선호합니다.
  • 로그 설계부터 수집까지 자동화 경험이 있으신 분을 선호합니다.
  • CI / CD 개발 경험이 있으신 분을 선호합니다.
  • OLAP 시스템 구축, 사용 경험이 있으신 분을 선호합니다.


[기술 스택]

  • Data Storage
  •  S3, Kafka, Schema Registry, Iceberg, OpenSearch, MongoDB
  • Data Processing & Transformation
  • EMR Spark, Kafka Streams, Flink, dbt
  • Interactive Query Service
  • Athena, Presto
  • Orchestration
  • Airflow, Dagster
  • Data Governance
  • AWS Lake Formation
  • Data Visualisation
  • Redash, Superset
  • EDA
  • EMR Studio, DataGrip, Zeppelin


[근무 조건]

  • 정규직(수습기간 3개월)
  • 주 5일(월~금) 근무


[합류여정]

  • 서류접수 > 직무 과제 > 1차 대면 인터뷰(직무 인터뷰) > 2차 대면 인터뷰(컬쳐 인터뷰) > 레퍼런스 체크 > 처우 협의 > 최종합격


[기타사항]

  • 레브잇은 지원자의 역량을 최우선적으로 검토하고 있습니다. 이력서 제출 시 직무와 무관한 개인정보 및 연봉 정보는 삭제 후 지원 부탁드립니다.
  • 이력서 및 제출 서류에 허위 사실이 발견되거나 근무 이력 중 징계사항이 확인될 경우, 채용이 취소될 수 있습니다.
  • 레브잇 내규에 따라 채용 금지자 또는 결격사유 해당자는 채용이 취소될 수 있습니다.
공유하기
Data Platform Engineer

[합류하게 될 팀]

  • Data Platform Engineer는 Data Team에 속해 있습니다.
  • Data Team은 데이터 기반 의사결정과 데이터 제품을 통해 모든 가격의 비효율을 혁신하고, 고객과 판매자를 더욱 효율적으로 연결합니다.
  • 레브잇의 모든 구성원은 누군가에게 업무를 지시하는 것이 아니라, 목표를 위해 각자 협업하며 업무하고 있습니다.


[합류하면 함께 할 업무]

  • 대용량 ETL 데이터 파이프라인을 구축 및 운영합니다.
  • 대용량 데이터를 분석 및 실험하는 플랫폼과 애플리케이션 개발을 담당합니다.
  • 데이터의 이상을 탐지하고 알리는 플랫폼과 애플리케이션 개발을 담당합니다.


[자격 요건]

  • 대용량 데이터 파이프라인의 구축, 개발 경험이 있으신 분이 필요합니다.
  • 빅데이터 프레임워크 (Hadoop, Kafka, Spark, Flink 등)의 활용 경험이 있으신 분이 필요합니다.
  • 워크플로우 (airflow, luigi 등)의 구축, 개발 경험이 있으신 분이 필요합니다.


[우대 사항]

  • 개인화 추천 또는 광고 데이터 파이프라인 구축 및 운영 경험이 있으신 분을 선호합니다.
  • 데이터 분석 플랫폼 구축 및 운영 경험이 있으신 분을 선호합니다.
  • 백엔드 (python, scala, kotlin) 개발 경험이 있으신 분을 선호합니다.
  • Capture Data Change (debezium 등)의 파이프라인 구축, 개발 경험이 있으신 분을 선호합니다.
  • AWS 기반의 인프라 (EMR, EKS, athena, 등) 구축, 개발 경험이 있으신 분을 선호합니다.
  • 로그 설계부터 수집까지 자동화 경험이 있으신 분을 선호합니다.
  • CI / CD 개발 경험이 있으신 분을 선호합니다.
  • OLAP 시스템 구축, 사용 경험이 있으신 분을 선호합니다.


[기술 스택]

  • Data Storage
  •  S3, Kafka, Schema Registry, Iceberg, OpenSearch, MongoDB
  • Data Processing & Transformation
  • EMR Spark, Kafka Streams, Flink, dbt
  • Interactive Query Service
  • Athena, Presto
  • Orchestration
  • Airflow, Dagster
  • Data Governance
  • AWS Lake Formation
  • Data Visualisation
  • Redash, Superset
  • EDA
  • EMR Studio, DataGrip, Zeppelin


[근무 조건]

  • 정규직(수습기간 3개월)
  • 주 5일(월~금) 근무


[합류여정]

  • 서류접수 > 직무 과제 > 1차 대면 인터뷰(직무 인터뷰) > 2차 대면 인터뷰(컬쳐 인터뷰) > 레퍼런스 체크 > 처우 협의 > 최종합격


[기타사항]

  • 레브잇은 지원자의 역량을 최우선적으로 검토하고 있습니다. 이력서 제출 시 직무와 무관한 개인정보 및 연봉 정보는 삭제 후 지원 부탁드립니다.
  • 이력서 및 제출 서류에 허위 사실이 발견되거나 근무 이력 중 징계사항이 확인될 경우, 채용이 취소될 수 있습니다.
  • 레브잇 내규에 따라 채용 금지자 또는 결격사유 해당자는 채용이 취소될 수 있습니다.