Conhecimentos:Conhecimento nos serviços / padrões arquiteturas de Cloud (AWS, Azure ou Google);Sólidos conhecimentos nas ferramentas de evento distribuído (Kafka, eventhub, etc);Sólidos conhecimento em Ecossistema Hadoop, Spark/Databricks, Python, Scala, Java;Conhecimentos avançados em Banco de dados relacional e NoSQL (Consulta, programação e modelagem);Construção de Dashboards e relatórios em ferramentas de visualização;Desenvolvimento de API Rest / Cloud Functions;Ferramenta de versionamento (Git);Conhecimentos da cultura DEVOPS (Jenkins, Pipeline scripts);Conhecimentos avançados em Shell Script, SQL, Python/Java, Airflow;Experiência em análise e programação;Modelagem de Dados Relacional e Dimensional;Experiência em desenvolvimento em Cloud (atuação pelo menos 1 ano).Formação:Superior Completo em TI (Engª da Computação, Ciências da Computação, Análise de Sistemas, Matemática, e afins).Experiência:Acima de 06 (seis) anos.Responsabilidades:Colaborar com outros membros da equipe, Engenheiros, PO, QA, Designers, Scrum Master e Tech Leader para resolver os desafios existentes;Propor arquitetura de processamento de dados de forma adequada;Atuar como parte da equipe ágil;Atuar em Analytics (Business Intelligence/Big Data);Atuar em arquitetura Big Data, DevOps, Git, Docker e DataOps;Modelagem dos dados Relacional e Dimensional;Atuar com ecossistema BigData/Hadoop: Hive, Sqoop, Python, Spark, Kafka, Flume, Nifi, Zeppelin, Impala, HBase;Atuar com Banco de Dados, com criação de procedures, queries avançadas, tanto para transformação de dados quanto para validação de dados;Manutenção de processos para correção de falhas/erros;Implementação de melhorias.
#J-18808-Ljbffr