포지션 상세 정보

기술스택
Spring DataSpring Data
PythonPython
HadoopHadoop
HiveHive
Apache FlinkApache Flink
KafkaKafka
ScalaScala
JavaJava
SparkSpark
Apache ImpalaApache Impala
주요업무
합류하면 함께할 업무예요

·커머스 서비스에 대규모 데이터를 안정적으로 제공하기 위한 스트리밍 및 배치 파이프라인, 서버를 개발해요.
·사용자 행동 로그(예: 클릭, 검색, 장바구니), 주문/결제 이벤트 등 핵심 비즈니스 데이터를 실시간으로 처리하고, 이를 기반으로 추천·검색·AI 모델에 필요한 데이터 파이프라인을 설계·운영해요.
·상품 피처(Impression, Click, CTR, CVR 등)를 집계하고, 실시간 서빙이 가능하도록 스트리밍 파이프라인 및 서버를 개발해요.
·타겟팅·성과 분석·리포팅을 위한 배치 파이프라인도 함께 운영하며, 다양한 팀의 의사결정을 돕는 지표 체계를 만들어가요.
·데이터 품질을 높이기 위해 로그 이상 탐지 및 유저 패턴 분석용 스트리밍 분석 로직도 지속적으로 개선하고 있어요.
자격요건
이런 분과 함께하고 싶어요

·대용량 데이터 처리를 위한 데이터 파이프라인(수집/처리/분석) 개발 경험이 있는 분이 필요해요.
·대용량 분산 시스템(Hadoop, HBase, Kafka, Spark, Flink, Impala, Hive 등) 활용 경험이 있는 분이 필요해요.
·데이터 어플리케이션 개발을 위한 소프트웨어 개발 역량(Java, Scala, Python 등)을 갖춘 분이 필요해요.
·중급 이상의 프로그래밍 개발 역량(분산처리, 서버 프로그래밍 등)이 있으면 좋아요.
·Data Warehouse, Mart에 대한 이해와 Airflow 기반 workflow를 개발한 경험이 있으면 좋아요.
·추천/광고/ML 관련 서비스를 개발해 보신 분이면 더 좋아요.
우대사항
이런 경험이 있다면 이력서에 꼭 작성해 주세요

·단순히 어떤 언어, 플랫폼, 프레임워크, 기술 등을 사용했는지보다 어떤 과제였는지, 이를 해결하기 위해 어떤 것을 사용했고, 어떻게 문제를 해결했는지 자세히 작성해주세요.
·토스와 유사한 플랫폼을 활용해본 경험이 있다면 좋아요. 하지만 언어, 플랫폼, 프레임워크, 기술은 우리가 엔지니어로서 문제를 해결하기 위한 도구일 뿐이라고 생각해요. 이보다 실제 지원자의 성장 가능성과 문제 해결 능력을 더 중점적으로 보고 있으니 관련 사례가 있다면 꼭 서류에 작성해주세요.
·플랫폼을 운영하면서 발생한 치명적인 장애를 해결해 보았거나 성능이나 시스템 리소스 사용 측면에서 최적화를 해 본 경험이 있다면 작성해주세요.
·오픈소스 사용 중에 발생한 버그나 이슈를 해결해 보았거나 부족한 기능을 직접 개발하거나 보완한 경험이 있다면 작성해주세요.
복지 및 혜택
-
채용절차 및 기타 지원 유의사항
토스로의 합류 여정

·서류접수 > 직무 인터뷰 > 문화적합성 인터뷰 > 레퍼런스 체크 > 처우협의 > 최종합격 및 입사

포지션 경력/학력/마감일/근무지역 정보

경력
경력 1~10년
학력
무관
마감일
2025-11-14
근무지역
  • 서울 강남구 테헤란로142, 4층, 10층, 11층, 12층, 13층, 22층, 23층
    지도보기

기업/서비스 소개

기업상세 정보로 이동
비바리퍼블리카_Data Engineer (Commerce)
비바리퍼블리카_Data Engineer (Commerce)
1 / 2
합류하게 될 팀에 대해 알려드려요

·커머스 데이터 서비스팀은 토스 쇼핑의 모든 데이터를 가장 신뢰할 수 있는 자산으로 만들고, 이를 누구나 활용할 수 있는 환경으로 제공해요.
·Data Engineer, Data Analytic Engineer, Data Ops Manager 등 다양한 데이터 직군이 모여 로그 설계부터 데이터 수집/적재, DW/DM 구축, 실시간 데이터 서빙까지 전 주기적인 데이터 엔지니어링 업무를 담당해요.
·각자의 전문성과 노하우를 자유롭게 공유하며, 동료와 함께 성장하는 팀 문화를 중요하게 생각하는 팀이에요.
·단순한 데이터 처리 그 이상을 지향하고,
-다양한 RDBMS, Kafka Topic 등에서 발생하는 원천 데이터를 안정적으로 수집하고,
-이를 조직 전체가 신뢰할 수 있는 Single Source of Truth로 가공 및 정제하여 Data Warehouse / Data Mart로 제공하고,
-또한, 적재된 데이터를 기반으로 상품 추천, 검색, 서비스 로직에 필요한 On/Offline Feature까지 설계하고 제공함으로써, 실질적인 서비스 개선에도 기여해요