분석 및 시각화 개발자

티오더
💰 취업축하금 50만원

포지션 상세 정보

기술스택
scikit-learnscikit-learn
GitGit
RR
HadoopHadoop
MachineLearningMachineLearning
AWSAWS
TensorFlowTensorFlow
PythonPython
BIBI
PyTorchPyTorch
주요업무
• 티오더 데이터 분석 및 시각화
• 데이터 분석 모델 설계 및 예측, 비즈니스 인사이트 도출
자격요건
• 학력 : 전문대졸 이상
• 경력 : 관련 분야 2년 ~ 7년 혹은 이에 상응하는 실력을 갖추신 분
• Python/R 등 한개 이상의 컴퓨터언어에 익숙한 분
• 머신러닝 프레임워크(Tensorflow,Pytorch 등)에 대한 이해도가 높은 분
• 머신러닝 Pipeline 설계 및 구축 경험이 있는 분
우대사항
• AWS 운영 경험이 있으신 분
• Hadoop Ecosystem에서 데이터 수집/처리/분석 경험을 가지고 계신 분
• RDBMS에 대한 이해와 개발 및 운영 경험
• BI 툴 사용 경험이 있으신 분
• 머신러닝 프레임워크(Tensorflow, Pytorch, Scikit-Learn 등)에 대한 이해도가 높은 분
• 데이타 Pipeline 설계 및 구축 경험이 있는 분
• Git/노션/슬랙 및 기타 협업툴에 대한 이해도가 높으신 분
복지 및 혜택
• 원하시는 사양의 컴퓨터 (맥북 가능)지급 해 드립니다. 업무의 효율만 생각하세요!
• 선택적 근로시간제 아시나요? 코어 시간대 외에는  하루 8시간 선택해서 출퇴근 하세요.
• 남들 다 해주는  4대보험, 퇴직연금은 기본이고요~
• 직장생활 n년차인데요.. 이렇게  쾌적한 사무실은 처음이에요.  300평 규모 체감됩니다.
• 로봇이 만들어주는 커피 드셔 보셨나요?  다양한 음료도 마셔 가면서 일합시다!
• 출근길.. 많이 피곤하시죠?  바디프렌드 장착된  릴렉싱룸에서 피로 풀고 일하세요.
• 생일, 결혼기념일, 어린이날 자녀 선물 등 경조사 상품권은 회사에서 챙겨 드릴게요!
• 당신의 지식이 회사의 자산입니다! 월 1권 자유롭게 도서 신청하세요.
• 휴가에 사유가 있나요? 연차/반차/반반차 신청 자유롭게 하세요!
채용절차 및 기타 지원 유의사항
[채용 절차]
• 서류 전형 > 과제 전형 > 코드 리뷰 & 면접 > 처우 협의 > 최종합격

[근무 조건]
• 3개월의 수습기간이 있습니다.

[근무장소]
(08377) 서울특별시 구로구 디지털로33길 48 대륭포스트타워7차 9층
(06142) 서울특별시 강남구 테헤란로 217 오렌지플래닛 7층
※ 최초 1~2개월간 구로구로 출근 후 강남구로 근무지 변경

[참고 사항]
• 서류의 합격/불합격 여부와 상관없이 메일로 결과 안내를 최대 2주 이내에 드리고 있습니다.
• 상시 진행되는 공고이므로, 채용 TO 충족 시 마감될 수 있습니다.

포지션 경력/학력/마감일/근무지역 정보

경력
경력 2~7년
학력
대학졸업(2,3년) 이상
마감일
2022-12-20
근무지역
  • 서울특별시 구로구 디지털로33길 48 대륭포스트타워7차 9층 / 서울 강남구 테헤란로 217(역삼동), 오렌지플래닛 7층
    지도보기

기업/서비스 소개

기업상세 정보로 이동
티오더_분석 및 시각화 개발자
티오더_분석 및 시각화 개발자
티오더_분석 및 시각화 개발자
티오더_분석 및 시각화 개발자
티오더_분석 및 시각화 개발자
1 / 5
티오더는 2019년에 설립된 회사로 자본금 15억 원, 2021년 올해 매출액 40억 원 계약 달성에 성공했습니다. 티오더 사원 수는 90명 규모, 신사업체 포함 100명 가까이 되는 벤처 기업입니다. 서울 구로구 디지털로33길 48 (구로동, 대륭포스트타워7차) 에 위치하고 있으며, 결제가 필요한 모든 매장 원격 비대면 주문 시스템/서비스 사업을 하고 있습니다. 현재는 각종 스마트기기 (서빙로봇, 로봇팔, AI 냉장고 등) 적용 매장을 점차 확대하고 ERP, 객체인식 사업 등 새로운 프로젝트를 진행 중에 있습니다.

[데이타플랫폼팀 소개]

데이타플랫폼팀은 티오더 데이타 플랫폼을 구축하고 대량의 정형/비정형 수집부터 활용까지 빅데이타 구축/운영/활용 전 단계 필요한 모든 기반 작업을 담당합니다.
단순한 데이타 통계 작업이 아닌 분석/예측/시각화 및 새로운 데이터 가치를 찾기 위하여 노력을 하는 팀입니다.