Requisitos: Experiência com SQL e BigQuery: Criação de consultas e procedures otimizadas; Integração de Dados via APIs: Utilização de APIs para integração e consumo de dados; Processo Completo de Dados: Conhecimento em ingestão, transformação, armazenamento e disponibilização de grandes volumes de dados; Ferramentas de Processamento de Dados: Experiência com SQL, Teradata, DataFactory, Microsoft Fabric e outras ferramentas; Ferramentas de ETL: Experiência com ferramentas de ETL e integração de dados; Desenvolvimento de Soluções de Armazenamento: Conhecimento avançado em Data Lakes, Data Warehouses e Lakehouses; Linguagens de Programação: Proficiência em Python e/ou Java.
Desenvolver e Gerenciar Pipelines de Dados: Garantir a integridade, disponibilidade, escalabilidade e eficiência das informações da pipeline de dados e informações disponibilizadas para a empresa utilizando boas práticas de ETL/ELT e frameworks de dados distribuídos; Monitoramento e Solução de Problemas: Monitorar, realizar testes regulares e solucionar problemas no ambiente de dados da PRIO; Ingestão e Processamento de Dados: Responsável por desenvolver, otimizar e corrigir processos para grandes volumes de dados; Estratégia de Desenvolvimento: Assegurar boas práticas, código limpo, testes automatizados e qualidade nas implantações; Colaboração Multifuncional: Trabalhar com equipes para entender requisitos de dados e traduzir em soluções técnicas; Segurança e Governança de Dados: Garantir conformidade com as melhores práticas; Arquitetura de Dados: Projetar, desenvolver, implementar e gerenciar soluções de arquitetura de dados; Documentação: Documentar arquitetura, pipelines e processos para manutenção e continuidade; Comunicação Clara: Assegurar compreensão compartilhada da arquitetura de dados entre as equipes.