[위메프서비스] 빅데이터 플랫폼 Data Engineer

위메프
💰 취업축하금 50만원
  • 🌲매출액 1000억 기업
  • 🚆2호선 역세권 기업
  • 🦄유니콘

포지션 상세 정보

기술스택
GitGit
MongoDBMongoDB
JenkinsJenkins
MySQLMySQL
KafkaKafka
HadoopHadoop
JavaJava
PythonPython
SparkSpark
주요업무
▪ 전사 서비스에서 발생하는 대규모 데이터를 수집 및 적재합니다.
▪ On-Premise 환경의 빅데이터 플랫폼을 구축하고 운영/관리합니다.
▪ 하둡 에코시스템을 이용하여 위메프 서비스에 필요한 data product를 PySpark로 
구현/운영합니다.
▪ 안정적인 데이터 파이프라인을 설계/구축하고 자동화합니다.
자격요건
▪ Java, Python, Scala 중 한 가지 이상의 언어로 개발이 가능하신 분
▪ 분산파일 시스템 Hadoop 및 Spark 기반의 데이터 수집/가공 경험이 있으신 분
▪ Hadoop Ecosystem 운영 및 유지보수 경험이 있으신 분
▪ 다양한 영역의 지식 습득과 공유에 적극적이고 서비스 개선에 대한 열정을 가지신 분
▪ 개발 경력 2년 이상 보유하거나 이에 상응하는 경험을 가지신 분
우대사항
▪ Apache Hadoop 클러스터 구축 경험이 있으신 분
▪ NoSQL(MongoDB, ElasticSearch 등) 구축 및 개발 경험이 있으신 분
▪ CDC(Change Data Capture)기술 사용 경험이 있으신 분 (Debezium 등)
▪ ETL 도구를 활용한 데이터 처리 또는 Data Pipeline 구축 경험이 있으신 분
▪ Kafka 구축 및 운영 경험이 있으신 분
▪ Streaming처리 경험 또는 관심이 많으신 분
▪ E-Commerce 개발 경험이 있으신 분
복지 및 혜택
즐겁게
• 위메프 쇼핑 및 도서구매 지원제도
• 명절 선물 지급
• 리프레시 휴가 및 휴가비 제공

건강하게
• 종합건강검진 지원
• 중증 의료비 지원 제도 운영
• 사내 직원 식당 운영

든든하게
• 경조사 지원 제도 운영
• 임신/출산/보육관련 지원 제도 운영
• 직원 대출 제도 운영
채용절차 및 기타 지원 유의사항
[전형과정을 안내 드릴게요]
▪ 서류전형 > 과제전형 > 1차 인터뷰 > 2차 인터뷰 > 처우협의 > 최종합격
▪ 지원서 작성 및 개인 이력서(자유양식) 첨부 시 본인의 개발 경험과 기술력을 보여줄 수 있는 
프로젝트 위주로 작성해 주시면 좋습니다.
▪ GitHub 계정이나 포트폴리오, 개발 블로그 등의 정보를 함께 전달해 주시면 참고하여 
검토하겠습니다.
▪ 파일용량이 20Mb 이상일 경우 경력기술서 내 URL을 기재해 주세요.
▪ 채용 포지션에 따라 전형절차는 변동될 수 있습니다.

[지원 시 확인해 주세요]
▪ 고용형태는 정규직입니다.
▪ 국가보훈대상자 및 장애인은 관계법령에 의거 우대합니다.
▪ 입사지원서 기재사항이 사실과 다를 경우 합격이 취소될 수 있습니다.
▪ 계획된 채용이 완료되면 접수 기간과 상관없이 조기에 마감 될 수 있습니다.

본 공고를 통해 입사지원 시 '위메프 채용 개인정보처리방침(아래 링크)'에 따라 
개인정보를 수집하여 처리합니다.
http://recruit.wemakeprice.com/info/privatePolicy

포지션 경력/학력/마감일/근무지역 정보

경력
경력 2~15년
학력
무관
마감일
2022-12-26
근무지역

기업/서비스 소개

기업상세 정보로 이동
위메프_[위메프서비스] 빅데이터 플랫폼 Data Engineer
위메프_[위메프서비스] 빅데이터 플랫폼 Data Engineer
위메프_[위메프서비스] 빅데이터 플랫폼 Data Engineer
위메프_[위메프서비스] 빅데이터 플랫폼 Data Engineer
1 / 4
새로운 도전을 통해 성장하고,
위메프의 내일을 함께 만들어갈 동료를 기다리고 있습니다.

서로에게 건강한 자극제가 되어 성장의 기쁨을 느끼고 싶다면 우리의 동료가 되어주세요!

[반값습니다]
Datalake팀은 ETL과 CDC 등의 최신 데이터플랫폼 기술을 활용해 위메프 내부의 전사 데이터와 
상품 정보를 수집하고, 하둡 기반의 Data Lake로 위메프 서비스에 필요한 
데이터 추출/가공/생성하는 파이프라인을 구축하고 운영합니다.

[우리가 일하는 방식]
▪ 스크럼, JIRA, GIT, 코드리뷰를 통해 협업 개발과 코드 품질 향상을 추구합니다.
▪ 빅데이터, AI 분야에 대한 스터디를 진행하며 새로운 기술을 빠르게 습득하고 공유하도록 
노력합니다.
▪ 자유로운 토론과 정보 공유로 함께 해답을 찾고 같이 성장하는 문화를 추구합니다.

[우리가 사용하는 기술]
▪ 개발언어: Python, Java
▪ 하둡인프라: Hadoop, Spark, MongoDB, Kafka, Kafka Connect, CDC(Debezium)
▪ 개발환경/CI/CD: Git, Jenkins, Airflow
▪ 데이터베이스: MySQL