Requisitos e qualificações: Ensino Superior completo ou em andamento em áreas de tecnologia, administração, engenharias ou afins;Habilidade em comunicação para interagir com stakeholders de áreas técnicas e de negócios;Experiência em ambientes complexos e com grande volume de dados;Experiência em criação e manutenção de pipelines de dados;Experiência em programação com linguagens de propósito geral (Python, R, Scala);Experiência com ferramentas e técnicas de armazenamento e manipulação de dados (Data Lake, Data Warehouse, Data Mart).Domínio de SQL para modelagem de dados e solução de problemas complexos de forma otimizada;Conhecimentos básicos em práticas de engenharia de software (documentação, testes automatizados, código limpo). Valorizamos se você tiver:Experiência com ferramentas de orquestração de workflows como Airflow, Spark, entre outros;Experiência em liderança técnica ou gestão de projetos;Conhecimentos em otimização de performance de queries SQL;Conhecimento em criação de camadas semânticas e modelos dimensionais (Star Schema, Snowflake Schema, OBT);Certificações em plataformas de nuvem (AWS, Snowflake, Azure, GCP) ou em ferramentas específicas de dados.Liderar projetos de dados com autonomia, desde o mapeamento de requisitos até a modelagem de bancos de dados e a disponibilização dos dados.Criar e manter pipelines de dados robustos, garantindo a transformação e armazenamento de dados com eficiência.Contribuir para o design, documentação, manutenção, monitoramento e otimização de códigos e ferramentas de dados.Identificar oportunidades de melhorias e escalabilidade na plataforma de ETL/ELT da empresa.Traduzir necessidades de negócios em soluções de dados alinhadas às estratégias e ferramentas da plataforma de dados.Atuar na mentoria de membros da equipe e promover a alfabetização de dados entre os stakeholders.Garantir a qualidade e a integridade dos dados, realizando revisões de código e verificações de qualidade.