RequisitosExperiência em GCP (Google Cloud Platform): serviços Storage, BigQuery, Functions e Composer/Airflow.Data Lake: conhecimentos em Tipos de estrutura de dados, Arquitetura Analytics, Modelagem de dados e Conceitos de ingestão batch e stream;BigQuery: proficiência em SQL adaptado para BigQuery e otimização de consultas;Airflow: experiência com Apache Airflow para orquestração e agendamento de pipelines de dados;Cloud Functions: desenvolvimento de funções preferencialmente em Python para integrar pipelines de dados;Versionamento de código: conhecimento em versionamento de código com alguma ferramenta (ex: github, bitbucket etc);(Desejável) Pub/Sub.Conhecimento em Integração de Dados:Integração Batch: ingestão de dados através do Informatica Cloud Integration.(Desejável) Informatica Power Center e IBM Data Stage;Banco de dados: conhecimento em Oracle.(Desejável) DB2, Postgres, MySQL, MongoDb etc;Conhecimento em Metodologia Ágil:Participação ativa em cerimônias e registro/documentação em Jira.Soft SkillsPensamento Analítico: capacidade de analisar requisitos de negócios e transformá-los em soluções técnicas, tendo em mente otimização de desempenho e custo dos pipelines de dados;Comunicação clara e objetiva: comunicar questões técnicas e soluções para partes interessadas;Atenção aos Detalhes: cuidado em verificar e validar os dados durante o desenvolvimento até a entrega, e em documentar processos e fluxos de dados para facilitar a manutenção.ResponsabilidadesAuxiliar no entendimento das demandas junto às áreas de negócio;Propor soluções de ingestão/transformação de dados em ambiente GCP;Construir pipelines de ingestão e tratamento de dados automatizados;Avaliar e implantar melhorias de custo e performance na cadeia de geração e consumo dos dados.#J-18808-Ljbffr