.
/n Buscamos uma pessoa que possua experiências com: · Processos e Ferramentas ETL; · Conhecimento/Experiência Cloud (Diferencial Google Cloud); · Implementação e otimização de pipelines de dados em nuvem Google e On-Premisses; · Big Query; · Data Lake; · SQL; · DevOps; · Modelagem de bancos de dados relacional e não relacional; · Sólida compreensão de modelagem de dados; · Conhecimento em GIT (Ou outras plataformas de versionamento); · Metodologia ágil; · SSIS.
DIFERENCIAIS: · Conhecimento Datasphere; · Conhecimento SAP Analytics Cloud; · Experiência com dados S/4 Hana; · Construção de CDs View (S/4 Hana); · Python.
/n Suas atividades serão: · Construir, sustentar e monitorar a infraestrutura de dados nos ambientes Cloud e On premisses, garantindo padronização, qualidade, escalabilidade e consistência da informação, o que inclui: - Implementação e otimização de pipelines de dados em nuvem Google; - Coleta, limpeza, transformação e análise de dados de diversas fontes; - Tratamento, preparação e classificação de dados; - Construção de modelos de grandes conjuntos de dados; - Construção de processos de qualidade de dados; - Manutenção de pipelines de CI/CD (DevOps).
· Atendimentos a chamados de melhorias de dados, compreendendo as necessidades reais dos usuários, realizando o levantamento de requisitos e determinando a viabilidade e melhores práticas da implementação no ambiente de dados.
· Utilizar linguagens de programação SQL e/ou Python e consultas para leitura e construção de produtos de dados.
· Estruturar a resolução de problemas complexos através de raciocínio analítico.
· Zelar, junto ao time de Governança de Dados, pela segurança e integridade dos dados, respeitando LGPD e diretrizes internas da empresa.
· Garantir a disponibilidade, segurança e confiabilidade dos dados.
· Monitorar o desempenho das pipelines de dados e dos sistemas de armazenamento, identificando e implementando melhorias.
· Trabalhar em estreita colaboração com todos os times de tecnologia e áreas de negócio.
· Manter documentação abrangente de pipelines, modelos de dados e processos.