Graduação completa em Análise de Sistemas, Tecnologia da Informação, Ciência da Computação, Engenharia, Administração, Estatística ou Matemática.Experiência em Linux, incluindo a criação de scripts em shell.Experiência com sistemas OLTP e OLAP.Experiência em Analytics.Experiência com bancos de dados relacionais e não relacionais.Experiência com ferramentas de visualização de dados como Power BI, Data Studio ou Tableau.Experiência com integração contínua/entrega contínua (CI/CD) e infraestrutura como código (IaC).Experiência em projetos de migração de dados entre plataformas.Experiência com ferramentas de orquestração de fluxo de dados, como Airflow, StreamSets, NIFI ou similares.Domínio em SQL.Domínio em programação em Python.Familiaridade com Data Lake, Delta Lake, Data Lakehouse, Data Mesh, Data Warehouse, Data Mart e suas respectivas diferenças e aplicações.Conhecimento em modelagem de dados, SQL e bancos de dados relacionais.Participar de projetos de ingestão e transformação de dados.Desenvolver processos de ETL e realizar verificações de controle de qualidade para assegurar a precisão e a atualização dos dados no data lake.Trabalhar tanto no desenvolvimento de fluxos de carga quanto na validação de regras de negócio e na qualidade dos dados.Construir e gerenciar pipelines de dados, manter bases de dados atualizadas e desenvolver APIs para consumo de dados.Implementar pipelines de dados para automatizar a entrega pontual de relatórios e dashboards para os clientes.Apoiar na manutenção e construção da arquitetura de dados dos projetos da empresa.Garantir que os dados sejam recebidos, processados, transformados e armazenados de maneira acessível para os times de projetos internos.Colaborar com a equipe de DevOps para assegurar que nosso ambiente e ferramentas estejam em conformidade com os protocolos de segurança.Trabalhar em parceria com cientistas de dados para colocar modelos de machine learning em produção.Documentar fluxos de dados, configuração de arquitetura e modelo de dados.Agregar valor estruturando e otimizando dados para serem utilizados em projetos internos.Identificar riscos e elaborar planos de contingência.Oferecer suporte e orientação à equipe para resolver problemas, estimando tempo e esforço para um fluxo de trabalho eficiente.Tomar decisões técnicas e estratégicas, avaliando riscos para garantir o sucesso das entregas.Treinar membros da equipe, resolver conflitos diários e garantir que todos estejam focados nos objetivos.