Requisitos e qualificações: Ensino Superior completo ou em andamento em áreas de tecnologia, administração, engenharias ou afins; Habilidade em comunicação para interagir com stakeholders de áreas técnicas e de negócios; Experiência em ambientes complexos e com grande volume de dados; Experiência em criação e manutenção de pipelines de dados; Experiência em programação com linguagens de propósito geral (Python, R, Scala); Experiência com ferramentas e técnicas de armazenamento e manipulação de dados (Data Lake, Data Warehouse, Data Mart).
Domínio de SQL para modelagem de dados e solução de problemas complexos de forma otimizada; Conhecimentos básicos em práticas de engenharia de software (documentação, testes automatizados, código limpo).
Valorizamos se você tiver: Experiência com ferramentas de orquestração de workflows como Airflow, Spark, entre outros; Experiência em liderança técnica ou gestão de projetos; Conhecimentos em otimização de performance de queries SQL; Conhecimento em criação de camadas semânticas e modelos dimensionais (Star Schema, Snowflake Schema, OBT); Certificações em plataformas de nuvem (AWS, Snowflake, Azure, GCP) ou em ferramentas específicas de dados.
Liderar projetos de dados com autonomia, desde o mapeamento de requisitos até a modelagem de bancos de dados e a disponibilização dos dados.
Criar e manter pipelines de dados robustos, garantindo a transformação e armazenamento de dados com eficiência.
Contribuir para o design, documentação, manutenção, monitoramento e otimização de códigos e ferramentas de dados.
Identificar oportunidades de melhorias e escalabilidade na plataforma de ETL/ELT da empresa.
Traduzir necessidades de negócios em soluções de dados alinhadas às estratégias e ferramentas da plataforma de dados.
Atuar na mentoria de membros da equipe e promover a alfabetização de dados entre os stakeholders.
Garantir a qualidade e a integridade dos dados, realizando revisões de código e verificações de qualidade.