Para transformar a saúde é preciso:Obrigatórios:Experiência prática com GCP, especialmente (Cloud Storage, BigQuery, Dataproc, Composer, Cloud Functions).Forte conhecimento em SQL.Forte conhecimento em linguagens de programação como Python para desenvolvimento de soluções de dados.Experiência em versionamento de código (Git) e práticas de CI/CD.Experiência em otimização de consultas no BigQuery (tabelas particionadas/clusterizadas).Habilidade com dados em processamento batch.Desejáveis:Experiência com práticas de DataOps e DevOps.Noções de governança de dados (LGPD).Familiaridade com ferramentas de BI como Power BI, Looker ou Data Studio.Experiência na aplicação de IA generativa (como Gemini) em pipelines de dados para otimização e automação de processos.Habilidade com dados em processamento streaming (Dataflow, Pub/Sub)Conhecimento em modelagem de dados Star Schema e Data Vault será um diferencial. Diferenciais AtrativosCertificações relevantes em GCP (Professional Data Engineer).Incentivo ao aprendizado contínuo (treinamentos, eventos, hackathons).Estamos em busca de um Engenheiro de Dados Pleno com experiência em Google Cloud Platform (GCP) para integrar nosso time de dados. Você será responsável por projetar, implementar e gerenciar pipelines de dados robustos, garantindo que as informações estejam acessíveis, seguras, governadas e otimizadas para análises de negócios. Sobre a posição:Projetar e desenvolver pipelines de dados escaláveis utilizando GCP (Cloud Storage, BigQuery, Dataproc, Dataflow, Composer, Pub/Sub, Cloud Functions, Cloud Run, Gemini, etc.).Implementar processos de ETL/ELT para ingestão e transformação de dados de diferentes fontes.Desenvolvimento de pipelines em tempo real (Pub/Sub, Dataflow, Kafka).Criar e gerenciar modelos de dados para suportar análises e BI, como Data Vault e Star Schema.Garantir a qualidade, integridade, governança e segurança dos dados em conformidade com as melhores práticas.Monitorar e otimizar o desempenho de pipelines de dados.Colaborar com equipes de negócio para atender às demandas de dados.Automatizar processos e implementar práticas de DevOps para dados (CI/CD, versionamento, monitoramento).Manter-se atualizado com as tendências e novas tecnologias no universo de engenharia de dados e cloud.