Mais detalhes no link Descrição: Buscamos um profissional que deseje aprender e construir projetos de Big Data de ponta a ponta em plataforma GOOGLE CLOUD, desenvolvendo arquiteturas de dados de alta performance e escaláveis utilizando as melhores práticas e tecnologias. Entre os principais desafios, deve definir e implementar pipelines de arquitetura de dados, importação, armazenamento, processamento e visualização. Requisitos: Obrigatórios: Conhecimento de conceitos de Data Lake e Data Warehouse. Conhecimento em desenvolvimento de pipelines de ELT/ETL. Experiência em linguagem de programação Python. Familiaridade com práticas de processamento em Batch e Streaming. Experiência em arquitetura em nuvem, principalmente Google Cloud Platform (GCP). Superior completo ou em andamento em Ciência da Computação, Sistemas de Informação, TI e áreas afins. Experiência em atuar com o time de analistas de dados ou de executar diretamente as atividades de entendimento das demandas junto ao negócio, especificação de como será implementado e posterior implementação e apoio na homologação. Vontade de aprender e sede por conhecimento. Pró-atividade, capacidade de trabalhar em equipe, organização, planejamento e respeitar prazos. capacidade de se comunicar com o cliente e os usuários de negócio no entendimento das demandas e tradução disto para a implementação técnica. Desejáveis: Capacidade de entendimento das demandas junto a área de negócio, avaliando e especificando o que será desenvolvido e de que forma. Conhecimento de práticas de DataOps. Conhecimentos em modelagem de dados relacional e dimensional. Desejável certificação Google Cloud Professional Data Engineer ou relacionadas. Atribuições: Projetar soluções para armazenar e processar alta volumetria de dados. Implementar e manter pipelines escaláveis de dados para produção de dados unificados de múltiplas fontes. Atuar no desenvolvimento de pipelines de extração, transformação e carga (ELT/ETL) de dados. Tratamento de dados.