A AB InBev é a cervejeira líder global e uma das 5 maiores empresas de produtos de consumo do mundo.
Com mais de 500 marcas de cerveja, somos a número um ou dois em muitos dos principais mercados de cerveja do mundo, incluindo a América do Norte, América Latina, Europa, Ásia e África.
Criado em 2022, o Growth Group unifica as nossas equipas business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution e Marketing.
Ao reunir funções tecnológicas e comerciais globais, o Growth Group permite-nos tirar o máximo partido dos dados e impulsionar a transformação digital e o crescimento orgânico da AB InBev em todo o mundo.
Como uma célula tecnológica de nossa organização, temos um objetivo simples: crescer.
Crescer como pessoas, como profissionais, como empresa.
Para alcançar isso, utilizamos a tecnologia para criar soluções digitais que simplificam a vida de nossos clientes, tornam suas decisões mais inteligentes e seus negócios mais lucrativos.
Com escritório em São Paulo e Campinas, incentivamos nosso time a participar presencialmente em grandes eventos e reuniões significativas ao longo do ano.
Responsabilidades:Implementar soluções ETL/ELT e integração de dados entre vários sistemas e fontes de dados.Conceber, implementar e manter pipelines de dados para ingerir, armazenar e processar grandes volumes de dados.Colaborar com outras equipes para garantir a segurança e a conformidade dos dados.Conceber, desenvolver e implementar soluções para otimizar o desempenho e a escalabilidade dos sistemas de processamento de dados.Requerimentos e qualificações:Licenciatura em Ciências Informáticas, Engenharia Informática, Sistemas de Informação, Análise de Desenvolvimento de Sistemas ou similar;Inglês Intermediário;Aplicar conhecimentos sobre conceitos e ferramentas de pipeline de dados para implementar tarefas de transformação, limpeza e agregação de dados.Utilizar estruturas e bibliotecas de pipeline de dados para automatizar tarefas de processamento de dados e otimizar fluxos de trabalho.Seguir as melhores práticas de desenvolvimento de pipelines de dados, incluindo controle de versões, testes e documentação exaustiva.Aplicar competências de programação em Python, PySpark, Scala e SQL para manipular e transformar dados de forma eficaz.Compreender e utilizar plataformas e serviços de computação em nuvem oferecidos por fornecedores como AWS, Azure e Google Cloud.Desenvolver pipelines de dados utilizando estruturas de orquestração (por exemplo, Apache Airflow, Luigi, Mage, Databricks Workflows), integrando com PySpark e/ou Scala, conforme necessário.Compreender e aplicar princípios de conceção de software a projectos de engenharia de dados.Aplicar técnicas de modelação de dados para conceber modelos de dados eficientes e escaláveis.Otimizar o desempenho das consultas PySpark e SQL, tendo em conta o volume de dados, a complexidade das consultas e os recursos do sistema.Utilizar ferramentas de dados para ingestão, transformação, análise e visualização.Raciocínio lógico e competências analíticas;Cumprimento de prazos e qualidade do trabalho;Diálogo eficaz e transparente com outras áreas e colegas de trabalho;Capacidade de comunicação e relacionamento interpessoal para apresentar casos e discuti-los com outras áreas envolvidas;Diferenciais:Desenvolver e manter APIs para troca de dados entre aplicações.Experiência com plataformas de computação em nuvem (AWS, Azure, Google Cloud) e seus serviços.Utilizar estruturas de automação usando ferramentas como Azure DevOps, Terraform e Github Actions.Bonus baseado no desempenho*Bonus de assiduidade*Plano de pensão privadoAuxílio refeiçãoDress code e escritório informalSeguro de saúde, dentário e de vidaDescontos em medicamentosAuxílio crecheDescontos em produtos Ambev*Garantia do material escolarPlataformas linguísticas e de formaçãoAuxílio transporte
#J-18808-Ljbffr