Formação superior em Ciência da Computação, Engenharia de Computação, Sistemas de Informação ou áreas correlatas; Experiência de pelo menos 2 anos atuando com arquitetura de dados e banco de dados; Conhecimento profundo em modelagem de dados e bancos de dados relacionais (SQL) e não relacionais (NoSQL); Forte experiência em arquiteturas de dados distribuídas e escaláveis, especialmente em ambientes de Big Data (Spark, ElasticSearch); Experiência em projetar e otimizar data lakes e data warehouses (ex.
: Delta Lake, MinIO); Experiência em integração e transformação de dados em larga escala, incluindo ETL/ELT; Conhecimento em automação de pipelines de dados usando orquestradores (ex.
: Airflow); Experiência com sistemas de controle de versão (Git) e práticas de CI/CD para a implementação de pipelines de dados.
Experiência em ambientes Linux e habilidades avançadas de Scripting (ex.
: Bash).
Capacidade de colaborar com times multidisciplinares, incluindo cientistas de dados e analistas de dados.
Inglês Técnico.
Apoiar iniciativas de modernização da arquitetura de dados, incorporando novas tecnologias e melhores práticas; Projetar e otimizar bancos de dados estruturados e não estruturados para atender a demandas da pesquisa; Documentar arquiteturas, fluxos e estratégias de dados, assegurando a facilidade de manutenção e escalabilidade; Auxiliar na avaliação e implementação de soluções de data lakes e data warehouses; Colaborar com equipes multidisciplinares em projetos que envolvem grande volume de dados, modelagem e integração; Monitorar o desempenho da arquitetura de dados, identificando e solucionando gargalos de performance; Auxiliar na implementação e otimização da arquitetura de dados em ambientes de Big Data, garantindo escalabilidade, performance e segurança; Apoiar o desenvolvimento de pipeline de dados em linguagem adequada; Auxiliar nas atividades de pré-processamento e vinculação de dados e construção de datasets para pesquisa; Gerenciar e otimizar grandes volumes de dados em arquiteturas distribuídas; Participar de reuniões e sessões técnicas para disseminar conhecimento e garantir a eficiência nas operações de dados; Elaborar e apresentar relatórios técnicos periódicos.