Última atualização: 15 de Abril de 2025
Sobre
Responsabilidades:
- Desenvolvimento de pipeline de dados para o Data Lake;
- Manutenção dos processos para correção de falhas/erros;
- Implementação de melhorias;
- Atuará no contexto de FastData, implementará os consumers como microserviços no EKS, enriquecerá os eventos com dados da plataforma e integrará do Adobe Analytics.
- Atuar como parte da equipe ágil;
- Colaborar com outros membros da equipe, Engenheiros, PO, QA, Designers, Scrum Master, Funcional e Tech Lead para resolver os desafios existentes;
- Desenvolver, implantar e operar aplicações na cultura DevOps;
- Modelagem de Dados Relacional e Dimensional.
Requisitos:
- Experiência de mínimo de 2 anos atuando com o desenvolvimento e monitoramento de Pipeline AWS;
- Big Data | Tecnologias, Soluções e Conceitos como Spark, Hadoop, Hive, MapReduce, Kafka;
- Cloud Computing | AWS;
- Workflow | AirFlow;
- Storage Solutions | S3, Redshift, Parquet, Delta;
- Data Modeling | Landing, Cleaning, Processing, Curation, Estruturas de Fato/Dimensão, encadeamento de ETLs, Data Marts;
- Lógica de Programação | Escrever e revisar queries em banco de dados, usar parametros, criar variáveis;
- Conhecimento em Sistema Operacional (Linux | Docker | Kubernetes);
- Conhecimento em Git + GitFlow;
- Conhecimento Solido em Pipeline de Dados na AWS.
INDISPENSÁVEL Conhecimento/Atuação em:
- Python
- Spark
- Amazon EKS
- GIT
- Kubernetes + Docker
Outras Informações
Hey!
Cadastre-se na Remotar para ter acesso a todos os recursos da plataforma, inclusive inscrever-se em vagas exclusivas e selecionadas!