Seu desafio no time:A pessoa Engenheira de Analytics colabora para que a área de Operations cumpra seu papel de dono da Estratégia de Receita da empresa, agregando conhecimento técnico e experiência ao nosso time.
O profissional deve conduzir a estratégia de Dados da área, habilitando os líderes para fazer a gestão Data Driven.
Transforme grandes quantidades de dados em datasets que simplificam o processo de traduzi-los em ações que maximizam a experiência de nossos clientes.Suas principais entregas:Desenhar e construir soluções para automatizar rotinas de processamento de dados em larga escala baseado em tecnologias como Python, Spark, Banco de dados Hive e Google Cloud Platform (GCP), garantindo eficiência e escalabilidade.Construção e manutenção de pipelines de dados que integram APIs externas para enriquecimento de dados e construção de históricos, assegurando a integridade e qualidade das informações;Trabalhar junto aos cientistas de dados do time para integrar modelos de ML às demandas da operação.
Exemplo: Refatorar e otimizar modelos de Machine Learning, especialmente aqueles baseados em Large Language Models (LLMs), utilizando oGoogle Cloud Vertex AI para melhorar desempenho e redução de custo.Garantir a visibilidade do processo diário de atualização dos dados, buscando eficiência das cargas, proposição de alteração de janelas de horário, etcEstabelecer padrões e melhores práticas para o ciclo de vida de desenvolvimento de pipeline de processamento de dados desde a concepção até a operacionalização.Propor e implementar soluções arquiteturais inovadoras em engenharia de dados e MLOps, avaliando novas tecnologias e melhores práticas do mercado.Perfil que buscamos:Graduação em TI, Ciência da Computação, Engenharia da Computação, Estatística ou áreas afins;Experiência em engenharia de dados, com participação de projetos de enriquecimento de grandes volumes de dados e/ou operacionalização de modelos de Machine Learning.Vivência em projetos estratégicos interdepartamentaisDomínio de Python aplicado a processamento de dados;Experiência sólida com Google Cloud Platform (GCP) (como Vertex AI, BigQuery, Cloud Storage e Cloud Functions).Proficiência em arquiteturas de dados e padrões de design para grandes volumes de dados.Experiência sólida com sistemas de processamento distribuído, como HQL ou Apache Spark.Conhecimento em conceitos e práticas de Big Data, incluindo Data Lakes, Data Warehouses e Data Lakehouses.Experiência em integração de APIs para ingestão e enriquecimento de dados.Conhecimento em segurança de dados e conformidade, incluindo governança de dados e controle de acesso.Será considerado um diferencialExperiência com o ecossistema Hadoop.Conhecimento em MLOps, incluindo práticas de CI/CD para modelos de ML, versionamento de modelos, construção de pipelines de modelos, monitoramento e automação de deploys.Experiência com orquestração de workflows utilizando Apache Airflow ou Google Cloud Composer.Experiência com infraestrutura como código, utilizando ferramentas como Terraform.Familiaridade com outras plataformas de cloud, como Azure ou AWS.Familiaridade com contêineres e orquestração de contêineres, como Docker e Kubernetes.Certificações profissionais, como Google Professional Data Engineer ou Google Professional Cloud Architect.
#J-18808-Ljbffr