Responsabilidades Chave: Auxiliar na construção, manutenção e otimização das arquiteturas de dados, incluindo bancos de dados e grandes sistemas de processamento de dados. Colaborar com equipes de ciência de dados e análise para entender as necessidades de dados e implementar soluções para coleta, armazenamento e análise de dados eficientes. Desenvolver ETLs (Extract, Transform, Load) para automatizar o processamento de dados e integrar sistemas de dados diversos. Monitorar a qualidade dos dados e corrigir problemas relacionados para garantir a acuracidade e a confiabilidade dos dados armazenados. Apoiar a implementação de políticas de segurança dos dados, incluindo o gerenciamento de acesso e a criptografia de dados sensíveis. Participar do desenvolvimento de pipelines de dados em tempo real para suportar aplicações de analytics e machine learning. Documentar claramente os processos e sistemas de dados para facilitar a manutenção e o entendimento por parte das equipes. Qualificações Necessárias: Bacharelado em Ciência da Computação, Engenharia, ou campo relacionado, ou experiência equivalente . Conhecimento básico de linguagens de programação relevantes para o processamento de dados, como Python, C# ou Java. Experiência inicial ou conhecimento de sistemas de banco de dados (SQL e NoSQL, por exemplo) Compreensão dos princípios de ETL, armazenamento de dados e processamento de dados em larga escala. Habilidades básicas em soluções de cloud computing, como AWS, Google Cloud Platform ou Microsoft Azure. Habilidades Desejadas: Fortes habilidades analíticas e capacidade de trabalhar com grandes volumes de dados. Boa comunicação e habilidades de colaboração para trabalhar efetivamente com equipes multifuncionais. Capacidade de aprender rapidamente novas tecnologias e técnicas de processamento de dados. Atitude proativa para resolver problemas e otimizar processos de dados.