포지션 상세
• 고용형태 : 전환형 인턴
• 계약기간 : 6개월 (3개월 단위로 평가가 진행될 예정이며, 6개월 기간 후 정규직 심사를 진행해요.)
직무소개
업무 내용
• 카카오페이증권 서비스 내/외에서 발생하는 다양한 데이터를 활용하여 의사결정을 지원하는 데이터플랫폼을 구축하고 개발해요.
• 대용량 데이터 처리를 위한 데이터플랫폼 인프라를 설계/구축하고 운영해요.
• 빠르고 유연하며 안정적으로 확장할 수 있는 데이터플랫폼 시스템을 개발해요.
• 데이터를 효율적으로 제공하기 위한 서비스를 구축하고 개발해요.
• 데이터플랫폼 개선과 관련한 신규 기술을 리서치하고 도입해요.
자격요건(필수)
• SQL 통한 데이터 추출, 집계, 분석이 가능하신 분을 찾아요.
• Python/Java 등 한 가지 이상의 프로그래밍 언어에 능숙하신 분을 찾아요.
• Hadoop 기반 데이터플랫폼 (Hadoop, Hive, Impala, Trino, Kudu, Hue, Spark 등) 구축 및 운영을 경험해보신 분을 찾아요.
• Kubernetes 기반 서비스/시스템을 구축하고 운영한 경험이 있으신 분을 찾아요.
• 데이터 정합성/파이프라인을 구축하고 운영한 경험이 있으신 분을 찾아요.
우대사항(선택)
• Ansible을 활용한 배포 및 운영 자동화 경험이 있으신 분이면 좋아요.
• Kerberos, Ranger, Vault 등 보안, 인증 관련 기술에 대한 이해가 있으신 분이면 좋아요.
• 데이터 거버넌스와 메타데이터 관리에 대한 이해가 있으신 분이면 좋아요.
• Frontend/Backend 기술을 이용하여 데이터 관련 툴을 개발해보신 경험이 있으신 분이면 좋아요.
• 데이터 분석 관련 프로세스/시스템을 구축하고 분석 업무 생산성을 개선시킨 경험이 있으신 분이면 좋아요.
• 클라우드 및 on-premise 환경에서 시스템 구축 및 개발 경험이 있으신 분이면 좋아요.
• 다양한 상황에서 최적의 솔루션을 찾을 수 있는 문제해결 능력과 원활한 커뮤니케이션 역량이 있으신 분이면 좋아요.
채용 프로세스
• 서류전형 → 과제전형 → 인터뷰 → 최종합격
* 과제전형 상세 안내
• 프로그래머스를 통해 1/4(토)~1/5(일)에 진행될 예정이에요.
• 코딩테스트(소요시간 30분)과 서술형 과제(소요시간 6시간)으로 구성되어 있어요.
• 과제는 docker compose 기반 데이터베이스 및 스파크 클러스터를 구성하고 스파크(pyspark) 기반 데이터베이스 간 데이터를 집계 및 ETL 하는 파이프라인 개발이 주어질 예정이에요.
💻 카카오페이증권 기술 블로그