Mais detalhes no link
Descrição:
Buscamos um profissional que deseje aprender e construir projetos de Big Data de ponta a ponta em plataforma GOOGLE CLOUD, desenvolvendo arquiteturas de dados de alta performance e escaláveis utilizando as melhores práticas e tecnologias. Entre os principais desafios, deve definir e implementar pipelines de arquitetura de dados, importação, armazenamento, processamento e visualização.
Requisitos: Obrigatórios:
Conhecimento de conceitos de Data Lake e Data Warehouse.
Conhecimento em desenvolvimento de pipelines de ELT/ETL.
Experiência em linguagem de programação Python.
Familiaridade com práticas de processamento em Batch e Streaming.
Experiência em arquitetura em nuvem, principalmente Google Cloud Platform (GCP).
Superior completo ou em andamento em Ciência da Computação, Sistemas de Informação, TI e áreas afins.
Experiência em atuar com o time de analistas de dados ou de executar diretamente as atividades de entendimento das demandas junto ao negócio, especificação de como será implementado e posterior implementação e apoio na homologação.
Vontade de aprender e sede por conhecimento.
Pró-atividade, capacidade de trabalhar em equipe, organização, planejamento e respeitar prazos.
capacidade de se comunicar com o cliente e os usuários de negócio no entendimento das demandas e tradução disto para a implementação técnica.
Desejáveis:
Capacidade de entendimento das demandas junto a área de negócio, avaliando e especificando o que será desenvolvido e de que forma.
Conhecimento de práticas de DataOps.
Conhecimentos em modelagem de dados relacional e dimensional.
Desejável certificação Google Cloud Professional Data Engineer ou relacionadas.
Atribuições:
Projetar soluções para armazenar e processar alta volumetria de dados.
Implementar e manter pipelines escaláveis de dados para produção de dados unificados de múltiplas fontes.
Atuar no desenvolvimento de pipelines de extração, transformação e carga (ELT/ETL) de dados.
Tratamento de dados.