Requisitos:Formação acadêmica:Formação acadêmica: Superior completo em exatas e preferencialmente em TI, como: Sistema da Informação, Ciência da Computação, Engenheira da Computação.Qualificações imprescindíveis:Ter experiencia consolidado em engenharia de dados de preferência experiência em GCP (Google Cloud Platform) e arquiteturas de plataformas de dados;Conhecimentos em ferramentas GCP para plataformas de dados: BigQuery, Cloud SQL (PostgreSQL e/ou MySQL), Cloud Storage, Bigtable (streaming/realtime), Datastream, Cloud Function, Cloud Data Fusion Cloud Dataflow, Cloud PubSub, Cloud Dataproc, Looker/Looker Studio e outras ferramentas;Conhecimento desejáveis em ferramentas open source, como: AirFlow, AirByte, DBT, Delta/Iceberg, Apache Superset, Metabase e outras;Solido conhecimento nas linguagens Python, Spark (PySpark) e SQL;Solida experiencia com programação e lógica de programação;Conhecimento e vivência em ferramentas de versionamento como GitHub, GitLab e/ou outras;Vivência em projetos de ingestão de dados, modelagem de dados, criação de pipeline automatizados e processos realtime/near real time;Experiencia em estruturação de plataforma de dados com conceitos e métodos de DataLake, Data Mesh e arquitetura Data Lakehouse;Desejável conhecimento de DevOps/SRE para plataformas de dados (DataOps) e processos de CI/CD;Desejável conhecimento com IaC (Infra as Code);Desejável vivência em projetos ágeis e desenvolvimento de produtos de dados.Características pessoais (competências comportamentais)Boa comunicação e relação interpessoal;Trabalho em equipe;Didática para treinar pessoas.
Responsabilidades:Estruturação da plataforma de dados com definições de arquitetura, ferramentas, boas práticas, governança de dados, gestão de acessos e integrações aplicando conceitos e métodos de DataLake, Data Mesh e arquitetura Data Lakehouse;Desenvolvimento e estruturação de pipelines de ingestão de dados e refinamento automatizados;Modelagem de dados.