O Cidacs conduz estudos e pesquisas baseados em projetos interdisciplinares originados na vinculação de grandes volumes de dados para ampliar o entendimento dos determinantes e das políticas sociais e ambientais sobre a saúde da população.
/n • Formação superior em Ciência da Computação, Engenharia de Computação, Sistemas de Informação ou áreas correlatas; • Experiência de pelo menos 2 anos atuando com arquitetura de dados e banco de dados; • Conhecimento profundo em modelagem de dados e bancos de dados relacionais (SQL) e não relacionais (NoSQL); • Forte experiência em arquiteturas de dados distribuídas e escaláveis, especialmente em ambientes de Big Data (Spark, ElasticSearch); • Experiência em projetar e otimizar data lakes e data warehouses (ex.
: Delta Lake, MinIO); • Experiência em integração e transformação de dados em larga escala, incluindo ETL/ELT; • Conhecimento em automação de pipelines de dados usando orquestradores (ex.
: Airflow); • Experiência com sistemas de controle de versão (Git) e práticas de CI/CD para a implementação de pipelines de dados.
• Experiência em ambientes Linux e habilidades avançadas de Scripting (ex.
: Bash).
• Capacidade de colaborar com times multidisciplinares, incluindo cientistas de dados e analistas de dados.
• Inglês Técnico.
/n • Apoiar iniciativas de modernização da arquitetura de dados, incorporando novas tecnologias e melhores práticas; • Projetar e otimizar bancos de dados estruturados e não estruturados para atender a demandas da pesquisa; • Documentar arquiteturas, fluxos e estratégias de dados, assegurando a facilidade de manutenção e escalabilidade; • Auxiliar na avaliação e implementação de soluções de data lakes e data warehouses ; • Colaborar com equipes multidisciplinares em projetos que envolvem grande volume de dados, modelagem e integração; • Monitorar o desempenho da arquitetura de dados, identificando e solucionando gargalos de performance; • Auxiliar na implementação e otimização da arquitetura de dados em ambientes de Big Data, garantindo escalabilidade, performance e segurança; • Apoiar o desenvolvimento de pipeline de dados em linguagem adequada; • Auxiliar nas atividades de pré-processamento e vinculação de dados e construção de datasets para pesquisa; • Gerenciar e otimizar grandes volumes de dados em arquiteturas distribuídas; • Participar de reuniões e sessões técnicas para disseminar conhecimento e garantir a eficiência nas operações de dados; • Elaborar e apresentar relatórios técnicos periódicos.