1.
Conhecimentos em Google Cloud Platform (GCP):
- BigQuery: Teste de consultas SQL, otimização de desempenho e validação de integrações.
- Cloud Storage: Verificação de pipelines de ingestão de dados, estruturação de dados e integridade.
- Dataflow e Pub/Sub: Entendimento do fluxo de dados, monitoramento e validação de processos ETL (Extract, Transform, Load).
- IAM (Identity and Access Management): Validação de permissões de acesso e segurança em projetos de BI.
- Stackdriver (Monitoring e Logging): Uso para identificar e resolver problemas nos pipelines de dados e monitorar o desempenho.
2.
Conhecimentos em Looker:
- LookML: Entendimento de modelagem de dados no Looker, para garantir que as visualizações estejam corretas e os dados sejam consistentes.
- Testes de Dashboards: Validação de dashboards e visualizações para garantir que os cálculos, filtros e métricas reflitam os dados corretamente.
- Performance e Otimização: Garantir que as consultas sejam otimizadas e as visualizações carreguem rapidamente.
3.
Testes de Dados:
- Validação de Qualidade de Dados: Comparação entre fontes de dados (source) e o destino (target) para garantir que os dados estejam íntegros após os processos de ETL.
- Testes Automatizados de Dados: Utilização de ferramentas como dbt (data build tool) para criação de testes automatizados em pipelines de dados.
- Testes de Performance: Avaliação da eficiência dos pipelines de dados e da latência nas consultas.
4.
Conhecimentos em SQL:
- Consultas SQL Avançadas: Capacidade de validar consultas complexas em BigQuery, Looker e outras plataformas para garantir que os dados estejam corretos.
- Otimização de Consultas: Identificação de consultas lentas e ajuda na otimização para melhorar o desempenho.
5.
Ferramentas de Automação de Testes:
- Selenium, Cypress ou Playwright: Para automação de testes funcionais em dashboards ou interfaces do Looker.
- dbt (Data Build Tool): Para automatizar a criação e validação de pipelines de dados e modelos SQL.
6.
Integração Contínua (CI) e Entrega Contínua (CD):
- Conhecimento em pipelines de CI/CD focados em dados, onde é necessário garantir que os pipelines ETL estejam funcionando corretamente em cada etapa.
7.
Conhecimento em Versionamento de Dados:
- Ferramentas como Git para controle de versões de scripts SQL e modelos de dados no Looker (LookML), garantindo que o histórico de mudanças seja rastreado.
8.
Soft Skills:
- Colaboração: Comunicação eficaz com engenheiros de dados, analistas de BI, desenvolvedores e outros stakeholders para entender os requisitos de negócio e assegurar a qualidade dos dados.
- Análise Crítica: Capacidade de identificar discrepâncias e antecipar problemas que podem surgir em análises de dados ou visualizações.
Tipo de vaga: Tempo integral, Efetivo CLT
Pagamento: R$3.853,70 - R$5.924,30 por mês
**Benefícios**:
- Assistência médica
- Assistência odontológica
- Auxílio-creche
- Convênios e descontos comerciais
- Participação nos lucros
- Seguro de vida
- Vale-refeição
- Vale-transporte
Horário de trabalho:
- De segunda à sexta-feira
- Turno de 8 horas
Pagamento adicional:
- 13º salário
- Hora extra
Pergunta(s) de seleção:
- Possui experiência como QA na área de dados?
- Vaga híbrida, 2 x na semana presencial no escritório na Av.
Paulista, possui a disponibilidade mencionada?
- Pretensão salarial, vaga CLT?
Data de início prevista: 05/11/2024