Desculpe, a oferta não está disponível,
mas você pode realizar uma nova pesquisa ou explorar ofertas semelhantes:

Engenheiro Civil

Empresa de Serviços de Engenharia admite Engenheiro Civil em São Paulo. Irá atuar com elaboração de projetos de drenagem. Elaboração de memorial de cálculo....


Desde Empresa De Serviços De Engenharia - São Paulo

Publicado 14 days ago

Especialista Em Remuneração

Fabricante de produtos químicos admite Especialista em Remuneração em Sorocaba. Acompanhar a realização de pesquisas de remuneração junto ao mercado. Assegu...


Desde Fabricante De Produtos Químicos - São Paulo

Publicado 14 days ago

Técnico De Segurança Do Trabalho

Empresa de Tecnologia da Informação admite Técnico de Segurança do Trabalho em São Paulo. Executar e conferir as atividades de Saúde e Segurança do Trabalho...


Desde Empresa De Tecnologia Da Informação - São Paulo

Publicado 14 days ago

Técnico De Segurança Do Trabalho

Construtora admite Técnico de Segurança do Trabalho em Itu. Identificar riscos ambientais no local de trabalho. Atuação com ações preventivas. Orientar os t...


Desde Construtora - São Paulo

Publicado 14 days ago

Engenheiro De Dados

Detalhes da Vaga

Sobre a Empresa: A NAGY é uma consultoria boutique que oferece soluções abrangentes em Aquisição de Talentos, Consultoria Empresarial e Desenvolvimento Individual.
Sobre o Cargo: Estamos apoiando um dos nossos clientes na busca de 3 Engenheiro(a)s de Dados.
Mandatório: Conhecimento em Microsoft Azure: experiência com os principais serviços da Microsoft Azure, incluindo o Azure Data Factory, VMs (máquinas virtuais), Azure StorageAccounts, BlobStorage, Resource groups, Azure Databricks, AKS(Azure Kubernetes), CosmosDB, entre outros.
Processamento Batch e Streaming de Dados: conhecimento em processamento de dados em lotes e em streaming (mensageria), com a capacidade de projetar, implementar e manter pipelines de processamento de dados utilizando kubernetes.
Habilidade em Databricks: experiência em trabalhar com Apache Spark em Databricks, incluindo a criação e otimização de pipelines de dados.
Experiência em Pyspark, Python e Kedro: fortes habilidades de programação em Pyspark e Python e Kedro para desenvolver, depurar e manter códigos de transformação de dados.
Vivência em Ambientes On-Premises (Cloudera): desejável experiência anterior com a plataforma Cloudera ou outras soluções on-premises para big data, incluindo Hadoop, HBase e Hive.
Conhecimento em DevOps: Familiaridade com o uso do Jenkins para integração e entrega contínua (CI/CD), além de automação de tarefas de implantação e gerenciamento de pipelines.
Conhecimento em desenvolvimento orientado a objeto: Familiaridade com linguagem JAVA é de bastante ajuda (não é necessário codar, mas sim interpretar).
Orquestração (por exemplo, Control-M ou outros): Conhecimento em ferramentas de orquestração de processos, o que é importante para o agendamento e controle de fluxos de trabalho.
Desejável certificação AZ-900, DP-900.
Contratação CLT, faixa salarial de R$ 8.000,00 a R$ 15.000,00, a depender de avaliação técnica e enquadramento de nível.


Fonte: Talent_Dynamic-Ppc

Função de trabalho:

Requisitos

Built at: 2024-11-03T23:04:26.220Z