Responsabilidades e atribuições Coletar, processar e gerenciar grandes conjuntos de dados de diversas fontes, garantindo a qualidade e integridade dos mesmos.
Criar modelagem de novas soluções de arquitetura de dados seguras, confiáveis, disponíveis e escaláveis.
Planejar e executar as modelagens de repositórios de dados tais como: Data Lake, Data Warehouse, bases relacionais e não relacionais, suportando as necessidades transacionais e analíticas da empresa.
Criar e manter pipelines de dados eficientes, escaláveis e seguros, utilizando ferramentas e tecnologias de Big Data como Hadoop, Spark, Hive, etc.
Colaborar com as equipes de análise de dados e desenvolvimento de software para fornecer dados precisos, atualizados e confiáveis.
Desenvolver e manter documentação técnica, incluindo diagramas de arquitetura e fluxos de dados.
Estruturar e gerenciar ambiente de dados em Cloud.
Coordenar chamados, incidentes, problemas e apresentar indicadores de performance.
Requisitos e qualificações Graduação em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas afins.
Pós-graduação em andamento em áreas afins.
Experiência anterior de 3 a 5 anos em desenvolvimento de soluções de Big Data, incluindo armazenamento, processamento e análise de dados.
Desejável conhecimento em SQL Server, Analysis Services, Reporting Services e Integration Services.
Experiência anterior de pelo menos 3 anos com a Stack Azure (DataFactory, DataBricks, Synapse, Purview) e Microsoft Power BI.
Experiência em linguagens de programação como Python, Java ou Scala.
Conhecimento de bancos de dados relacionais e não-relacionais, como MySQL, PostgreSQL, MongoDB, etc.
Conhecimento em plataforma de Streaming de Dados Desejável conhecimento avançado em inglês
#J-18808-Ljbffr