Trabalhar com equipes técnicas e de negócios na implementação Kinaxis (Supply Chain Planning SaaS) para fornecer suporte técnico e experiência em desenvolvimento para pipeline geral de big data usando Nifi e Kafka e implementar modelos de dados para vendas e planejamento de operações da cadeia de suprimentos de ativos Processos (S&OP)
Funções e responsabilidades básicas do trabalho
- Desenvolver e testar fluxos de dados Nifi, incluindo ingestão de dados de múltiplas fontes de dados, por exemplo, Snowflake/Kafka/API REST, mapeamento e transformação de dados e publicação de dados em sistemas de destino
- Desenvolver ou aprimorar o processador Nifi para atender requisitos que não podem ser atendidos pelo processador Nifi pronto para uso
- Envolva-se em provas de conceitos, demonstrações técnicas e interação com clientes e outras equipes técnicas
- Automatize proativamente o monitoramento, alertando com base nas necessidades do fluxo de trabalho
- Trabalhe para utilizar CI/CD comum melhores práticas em diferentes equipes
- Garantir a conformidade da solução com os padrões de design técnico e arquitetura
Requisitos de habilidades técnicas
**Habilidades técnicas primárias**:
- 3 a 5 anos de experiência trabalhando com Big Data/tecnologias de streaming de eventos
- Compreender integrações ponta a ponta (autenticação, formato de mensagem, interface, protocolo)
- Experiência aplicada com Apache NiFi
- Experiência aplicada com Snowflake
**Experiência aplicada com** Kafka / API REST / Java / SQL
- Uso de linguagens de script como Python ou Groovy.
- Familiaridade com autenticação moderna
- Proficiência com SQL e otimização de consultas
- Experiência com ferramenta de monitoramento DataDog
- Familiaridade com Azure DevOps/Git
- Experiência em sistemas UNIX ou semelhantes a UNIX
- Experiência com SCRUM ou outra estrutura Agile semelhante