O que buscamos: Profissional que atue com Engenharia de Dados Responsabilidade e atribuições: Desenvolver e implementar soluções de processamento de dados em larga escala utilizando Spark e Scala.
Construir e otimizar pipelines de ETL (Extract, Transform, Load) para garantir a qualidade e a integridade dos dados.
Desenvolver modelos preditivos e analíticos para gerar insights de negócio.
Colaborar com equipes de ciência de dados, engenharia e produto para entregar soluções de alta qualidade.
Atuar na arquitetura de soluções de big data, incluindo a escolha de tecnologias e ferramentas adequadas.
Garantir a alta disponibilidade e escalabilidade dos sistemas de dados.
Realizar a manutenção e otimização contínua dos sistemas existentes.
Participar na definição de boas práticas de engenharia de dados.
Experiência em desenvolvimento de software, com foco em big data.
Requisitos e qualificações: Experiência sólida com ferramentas de gerenciamento de dados e tecnologias como Apache Spark, Python, Java, Scala, SQL e Apache Airflow.
Conhecimento em pelo menos uma das principais plataformas de cloud (AWS, Azure, GCP) e seus serviços de big data, desejável AWS.
Experiência com bancos de dados relacionais (PostgreSQL, MySQL) e não relacionais (MongoDB, Cassandra).
Conhecimento de metodologias ágeis e DevOps.
Descrição comportamental: Procuramos uma pessoa que: Goste de trabalhar em equipe e seja colaborativa em suas atribuições; Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento; Transforme ideias em soluções criativas e busque qualidade em toda sua rotina; Tenha habilidades de resolução de problemas ; Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo ; Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT #VamosVoarJuntos #ProudToBeGFT