Contrato: PJ REMOTO Responsabilidades: Desenvolver, manter e otimizar pipelines de dados para ingestão, transformação e processamento. Garantir a integridade, qualidade e segurança dos dados durante todo o ciclo de vida. Implementar e gerenciar soluções de armazenamento e processamento de grandes volumes de dados (Data Lakes, Data Warehouses). Identificar e resolver problemas de performance e escalabilidade em sistemas de dados. Criar e manter documentações técnicas dos processos e arquiteturas de dados. Colaborar com equipes de desenvolvimento e análise para entender requisitos de dados e fornecer soluções otimizadas. Apoiar iniciativas de análise preditiva e machine learning com provisionamento de dados limpos e bem estruturados. Requisitos: Experiência comprovada na construção de pipelines de dados utilizando ferramentas como Apache Spark, Airflow, Nifi ou similares. Sólido conhecimento em linguagens de programação para manipulação de dados, como Python, Scala ou Java. Experiência com bancos de dados relacionais e não relacionais, como PostgreSQL, SQL Server, MongoDB ou Cassandra. Experiência com plataformas de nuvem (AWS, Azure, GCP) e ferramentas de armazenamento (S3, Blob Storage, BigQuery). Proficiência em ferramentas de ETL e modelagem de dados. Conhecimento em soluções de CI/CD aplicadas a pipelines de dados. Experiência em integração de dados de fontes variadas (APIs, bancos de dados, arquivos). Inglês avançado : leitura, escrita e conversação fluente (necessário para comunicação com equipes globais). Forte habilidade em resolver problemas e capacidade analítica. Diferenciais: Experiência com ferramentas de Big Data, como Hadoop, Hive ou similares. Conhecimento em soluções de visualização de dados como Tableau, Power BI ou Looker. Certificações relacionadas a Engenharia de Dados em AWS, Azure ou GCP.