**Modelo de contratação**: PJ (Pessoa Jurídica)
**Tempo de contrato**: Indeterminado
**Local de trabalho**: São Paulo - SP | Híbrido (presencial e remoto)
**Atribuições**:
- Colaborar na construção e manutenção de pipelines de dados utilizando Pyspark, SQL e AWS, garantindo a qualidade e eficiência dos processos de ETL;
- Desenvolver e manter scripts em R Studio para análise exploratória de dados, geração de insights e apoio à tomada de decisão;
- Realizar a ingestão e o processamento de dados em larga escala, utilizando tecnologias como S3 e GCP;
- Monitorar e otimizar o desempenho de pipelines de dados, buscando garantir a escalabilidade e a confiabilidade das soluções;
- Documentar os processos e soluções desenvolvidas, garantindo a clareza e a organização das informações;
- Manter-se atualizado sobre as novas tecnologias e tendências do mercado de dados, buscando aprimorar suas habilidades e conhecimentos.
**Requisitos**:
- Experiência sólida como Analista de Dados, com foco em Pyspark, SQL e R Studio;
- Domínio em ferramentas de ETL e processamento de dados em nuvem, como AWS (S3) e GCP;
- Conhecimento em Airflow para orquestração de workflows;
- Familiaridade com conceitos e técnicas de Machine Learning;
- Capacidade de trabalhar em equipe e de forma independente, com proatividade e responsabilidade.
- Habilidades de comunicação e resolução de problemas;
- Possuir CNPJ ativo em nome próprio.
**Diferenciais**:
- Experiência com outras linguagens de programação, como Python;
- Conhecimento em Power BI;
- Formação em Ciência da Computação, Estatística ou áreas relacionadas;
- Certificações em AWS ou GCP.
**Perfil comportamental**:
- Pensamento analítico e estratégico; capacidade de aprender e se adaptar rapidamente a novas tecnologias; proatividade e iniciativa na busca por soluções inovadoras; boa comunicação interpessoal e trabalho em equipe; organização e responsabilidade para cumprir prazos e metas.