Somos o maior aplicativo de contratação de serviços da América Latina!
O GetNinjas nasceu em 2011 para resolver a dificuldade de encontrar indicação de bons prestadores de serviço. Hoje, conectamos mais de 5 milhões de pedidos de indicação em mais de 500 categorias diferentes.
Estamos desenvolvendo um ecossistema de contratação de serviços nunca visto antes
O ano de 2021 marcou um novo capítulo em nossa história: abrimos nosso capital na bolsa de valores (IPO) e levantamos mais de R$ 482 milhões de reais para investir em nossa expansão. De lá para cá, iniciamos uma transformação de dentro para fora, com a mudança de toda a nossa diretoria, definição de novos direcionadores estratégicos e um novo plano de negócios que irá nos levar para outro patamar.
E é aqui que você entra!
Estamos criando um produto novo e buscamos um Data Engineer Especialista para fazer parte da nossa equipe de Dados. Esse time é responsável por desenvolver e manter uma infraestrutura de dados segura, eficiente e escalável, garantindo que as soluções de dados apoiem decisões estratégicas e contribuam diretamente para o sucesso dos nossos produtos.
O que esperamos de você:
Desenvolver e otimizar pipelines de dados no Databricks: Criar e manter pipelines de ETL e ELT performáticos e seguros, garantindo a coleta, processamento e armazenamento eficiente de grandes volumes de dados.
Projetar e manter arquiteturas de Data Lakehouse: Assegurar a organização, estruturação e otimização de dados não estruturados.
Gerenciar e monitorar cargas de dados: Analisar e corrigir eventuais problemas na execução de cargas de dados, assegurando a estabilidade e o desempenho dos pipelines de dados.
Criar e manter modelos de dados analíticos: Apoiar na captura, modelagem e transformação de dados brutos em formatos otimizados para consumo analítico.
Implementar estruturas de tracking, logging e monitoramento: Estabelecer processos robustos de rastreabilidade de dados, monitorando continuamente a integridade e a performance dos pipelines.
Seguir as práticas de governança de dados: Garantir que todas as soluções sigam as melhores práticas de segurança, privacidade e conformidade com normas de governança de dados.
Desenvolver código em Python e PySpark: Implementar soluções de transformação de dados utilizando Python e PySpark, garantindo alta eficiência nos processos de automação e integração de dados.
Alinhamento com as necessidades de negócio: Colaborar com as áreas demandantes para entender suas necessidades e garantir que as soluções de dados suportem os objetivos estratégicos da empresa.
O que você precisa ter:
Formação superior em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas correlatas.
Experiência sólida em SQL, modelagem de dados e estruturas de bancos de dados.
Conhecimento avançado em Databricks, Airflow, Airbyte e Redshift.
Forte experiência com arquitetura e estruturação de Lakehouse.
Habilidade avançada em Python e PySpark para processamento e manipulação de dados.
Experiência com ambientes de nuvem (AWS, GCP, Azure), focado em processamento de grandes volumes de dados de forma eficiente e segura.
O que oferecemos:
Alimentação: R$ 1.200/mês em cartão flexível (Swile)
Família: home office 2x na semana, auxílio creche, seguro de vida
Desenvolvimento: ciclos de avaliação e feedback, auxílio educação para cursos e eventos, programas internos para aperfeiçoamento
Saúde: plano de saúde e odontológico extensivo para dependentes, plano de saúde pet
Bem-estar: benefícios para o corpo (TotalPass) e mente (Zenklub)
Transporte: vale-transporte ou estacionamento
#J-18808-Ljbffr