Requisitos e Qualificações:· Formação completa em engenharia da computação, ciência da computação, análise de sistemas de informação ou cursos correlatos;· Conhecimento avançado em linguagens de programação voltadas para manipulação de dados, como Python e SQL;· Experiência em banco de dados relacionais e NoSQL;· Familiaridade com ambientes de cloud (Azure, AWS, ou Google Cloud);· Conhecimento em arquiteturas de dados, pipelines de ETL/ELT e integração de dados;· Experiência com ferramentas de versionamento de código, como Git;· Conhecimento em ferramentas de CI/CD e orquestração de dados (como Apache Airflow);· Habilidades analíticas e de resolução de problemas.Diferenciais Desejáveis:· Experiência em ambientes de Micro Serviços· Conhecimento em Docker e/ou KubernetesOnde você vai trabalhar: · Esta é uma posição para a cidade de São Paulo ou Curitiba Modelo Híbrido Modalidade de contratação: CLT Sobre a vaga Estamos em busca de um(a) Engenheiro(a) de Dados para integrar nosso time de dados. O(A) profissional será responsável por desenvolver, otimizar e gerenciar pipelines de dados, garantindo a qualidade, segurança e integridade das informações, além de contribuir para a implementação de soluções escaláveis e de alto desempenho. Este Profissional trabalhará com projetos novos dará apoio na sustentação, atuando diretamente com tecnologias como Python, SQL.Principais Responsabilidades e Atribuições:· Criação e manutenção de DAGs no airflow;· Modelagem de novas visualizações de dados na camada ouro do data lake;· Integrar e gerenciar dados provenientes de múltiplas fontes e formatos, estruturados e não estruturados;· Criar e implementar e manter os processos de ETL/ELT em ambiente produtivo;· Colaborar com equipes de análise de dados e ciência de dados para fornecer dados de alta qualidade e confiáveis;· Criação de fluxos de CI/CD com suporte da área de DevOps;· Efetuar code review para garantir alta qualidade no código desenvolvido pelo time;· Desenvolvimento de microserviços em python;· Implementar políticas de segurança, governança e qualidade de dados;· Monitorar o desempenho dos pipelines de dados e realizar ajustes para otimização;· Documentar processos, fluxos de trabalho e melhores práticas para garantir a continuidade e a escalabilidade das soluções implementadas.