O que buscamos:
Profissional que atue com
Engenharia de Dados
Responsabilidade e atribuições:
Desenvolver e implementar soluções de processamento de dados em larga escala utilizando Spark e Scala.
Construir e otimizar pipelines de ETL (Extract, Transform, Load) para garantir a qualidade e a integridade dos dados.
Desenvolver modelos preditivos e analíticos para gerar insights de negócio.
Colaborar com equipes de ciência de dados, engenharia e produto para entregar soluções de alta qualidade. Atuar na arquitetura de soluções de big data, incluindo a escolha de tecnologias e ferramentas adequadas.
Garantir a alta disponibilidade e escalabilidade dos sistemas de dados. Realizar a manutenção e otimização contínua dos sistemas existentes. Participar na definição de boas práticas de engenharia de dados.
Experiência em desenvolvimento de software, com foco em big data.
Requisitos e qualificações:
Experiência sólida com ferramentas de gerenciamento de dados e tecnologias como Apache Spark, Python, Java, Scala, SQL e Apache Airflow.
Conhecimento em pelo menos uma das principais plataformas de cloud (AWS, Azure, GCP) e seus serviços de big data, desejável AWS.
Experiência com bancos de dados relacionais (PostgreSQL, MySQL) e não relacionais (MongoDB, Cassandra).
Conhecimento de metodologias ágeis e DevOps.
Descrição comportamental:
Procuramos uma pessoa que:
Goste de trabalhar em equipe e seja
colaborativa
em suas atribuições;
Tenha
coragem
para se desafiar e ir além, abraçando novas oportunidades de crescimento;
Transforme ideias em
soluções criativas
e busque qualidade em toda sua rotina;
Tenha habilidades de
resolução de problemas
;
Possua habilidade e se sinta confortável para trabalhar de forma independente e
gerenciar o próprio tempo
;
Tenha interesse em lidar com situações adversas e
inovadoras
no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT