Mais detalhes no linkDescrição:Buscamos um profissional que deseje aprender e construir projetos de Big Data de ponta a ponta em plataforma GOOGLE CLOUD, desenvolvendo arquiteturas de dados de alta performance e escaláveis utilizando as melhores práticas e tecnologias. Entre os principais desafios, deve definir e implementar pipelines de arquitetura de dados, importação, armazenamento, processamento e visualização.
Requisitos: Obrigatórios:Conhecimento de conceitos de Data Lake e Data Warehouse.Conhecimento em desenvolvimento de pipelines de ELT/ETL.Experiência em linguagem de programação Python.Familiaridade com práticas de processamento em Batch e Streaming.Experiência em arquitetura em nuvem, principalmente Google Cloud Platform (GCP).Superior completo ou em andamento em Ciência da Computação, Sistemas de Informação, TI e áreas afins.Experiência em atuar com o time de analistas de dados ou de executar diretamente as atividades de entendimento das demandas junto ao negócio, especificação de como será implementado e posterior implementação e apoio na homologação.Vontade de aprender e sede por conhecimento.Pró-atividade, capacidade de trabalhar em equipe, organização, planejamento e respeitar prazos.capacidade de se comunicar com o cliente e os usuários de negócio no entendimento das demandas e tradução disto para a implementação técnica.
Desejáveis:
Capacidade de entendimento das demandas junto a área de negócio, avaliando e especificando o que será desenvolvido e de que forma.Conhecimento de práticas de DataOps.Conhecimentos em modelagem de dados relacional e dimensional.Desejável certificação Google Cloud Professional Data Engineer ou relacionadas.Atribuições:Projetar soluções para armazenar e processar alta volumetria de dados.Implementar e manter pipelines escaláveis de dados para produção de dados unificados de múltiplas fontes.Atuar no desenvolvimento de pipelines de extração, transformação e carga (ELT/ETL) de dados.Tratamento de dados.