Desculpe, a oferta não está disponível,
mas você pode realizar uma nova pesquisa ou explorar ofertas semelhantes:

Desenhista Projetista (Obras Rodoviárias)

Estamos com uma oportunidade de Desenhista Projetista , para atuar em uma de nossas obras na região de Guarulhos/SP . Reportando-se a Gerência de Engenharia ...


Oec - São Paulo

Publicado 5 days ago

Estagiário(A) Na Engenharia De Processos:

Sobre o time: Venha fazer parte do nosso time e começar a sua carreira em uma empresa que é líder mundial em desenvolvimento de componentes para veículos. O ...


Zf Group - São Paulo

Publicado 5 days ago

Supervisor De Manutenção - Utilidades

A Saint-Gobain Sekurit atua na fabricação e fornecimento de vidros automotivos para o mercado OEM (montadoras), com soluções inovadoras que oferecem conforto...


Saint Gobain Sekurit - São Paulo

Publicado 5 days ago

Engenheiro De Instalações

Estamos em busca de um Engenheiro de Instalações experiente para se juntar à nossa equipe. Este profissional será responsável por supervisionar e coordenar p...


Sempre Engenharia - São Paulo

Publicado 5 days ago

Especialista Em Engenharia De Dados

Detalhes da Vaga

Somos o maior aplicativo de contratação de serviços da América Latina!
O GetNinjas nasceu em 2011 para resolver a dificuldade de encontrar indicação de bons prestadores de serviço. Hoje, conectamos mais de 5 milhões de pedidos de indicação em mais de 500 categorias diferentes.
Estamos desenvolvendo um ecossistema de contratação de serviços nunca visto antes
O ano de 2021 marcou um novo capítulo em nossa história: abrimos nosso capital na bolsa de valores (IPO) e levantamos mais de R$ 482 milhões de reais para investir em nossa expansão. De lá para cá, iniciamos uma transformação de dentro para fora, com a mudança de toda a nossa diretoria, definição de novos direcionadores estratégicos e um novo plano de negócios que irá nos levar para outro patamar.
E é aqui que você entra!
Estamos criando um produto novo e buscamos um Data Engineer Especialista para fazer parte da nossa equipe de Dados. Esse time é responsável por desenvolver e manter uma infraestrutura de dados segura, eficiente e escalável, garantindo que as soluções de dados apoiem decisões estratégicas e contribuam diretamente para o sucesso dos nossos produtos.
O que esperamos de você:

Desenvolver e otimizar pipelines de dados no Databricks: Criar e manter pipelines de ETL e ELT performáticos e seguros, garantindo a coleta, processamento e armazenamento eficiente de grandes volumes de dados.
Projetar e manter arquiteturas de Data Lakehouse: Assegurar a organização, estruturação e otimização de dados não estruturados.
Gerenciar e monitorar cargas de dados: Analisar e corrigir eventuais problemas na execução de cargas de dados, assegurando a estabilidade e o desempenho dos pipelines de dados.
Criar e manter modelos de dados analíticos: Apoiar na captura, modelagem e transformação de dados brutos em formatos otimizados para consumo analítico.
Implementar estruturas de tracking, logging e monitoramento: Estabelecer processos robustos de rastreabilidade de dados, monitorando continuamente a integridade e a performance dos pipelines.
Seguir as práticas de governança de dados: Garantir que todas as soluções sigam as melhores práticas de segurança, privacidade e conformidade com normas de governança de dados.
Desenvolver código em Python e PySpark: Implementar soluções de transformação de dados utilizando Python e PySpark, garantindo alta eficiência nos processos de automação e integração de dados.
Alinhamento com as necessidades de negócio: Colaborar com as áreas demandantes para entender suas necessidades e garantir que as soluções de dados suportem os objetivos estratégicos da empresa.

O que você precisa ter:

Formação superior em Ciência da Computação, Engenharia da Computação, Sistemas de Informação ou áreas correlatas.
Experiência sólida em SQL, modelagem de dados e estruturas de bancos de dados.
Conhecimento avançado em Databricks, Airflow, Airbyte e Redshift.
Forte experiência com arquitetura e estruturação de Lakehouse.
Habilidade avançada em Python e PySpark para processamento e manipulação de dados.
Experiência com ambientes de nuvem (AWS, GCP, Azure), focado em processamento de grandes volumes de dados de forma eficiente e segura.

O que oferecemos:

Alimentação: R$ 1.200/mês em cartão flexível (Swile)
Família: home office 2x na semana, auxílio creche, seguro de vida
Desenvolvimento: ciclos de avaliação e feedback, auxílio educação para cursos e eventos, programas internos para aperfeiçoamento
Saúde: plano de saúde e odontológico extensivo para dependentes, plano de saúde pet
Bem-estar: benefícios para o corpo (TotalPass) e mente (Zenklub)
Transporte: vale-transporte ou estacionamento

#J-18808-Ljbffr


Salário Nominal: A acordar

Fonte: Whatjobs_Ppc

Função de trabalho:

Requisitos

Built at: 2024-11-18T16:17:22.976Z