A Solvimm, um dos principais parceiros da Amazon Web Services (AWS) no Brasil, apoia empresas na construção de soluções completas e seguras de Computação em Nuvem e Big Data, de acordo com as suas necessidades.
Para atingir esse objetivo, buscamos o mais alto nível de qualidade técnica e investimos sempre na capacitação e qualificação da nossa equipe.
No nosso dia a dia, os Solvers solucionam desafios de tecnologia de clientes de diversos segmentos, utilizando nosso conhecimento nas mais modernas tecnologias do mercado.
Na nossa área de Data & Analytics, apoiamos nossos clientes a tomarem melhores decisões ao entenderem e tratarem melhor seus dados, construindo Data Lakes, ETLs e visualizações.
Então, se você gosta de novos desafios e de sempre aprender algo novo, venha trabalhar conosco!Responsabilidades e atribuições
Tratamento, Extração e Análise de dados para ingestão em Clusters de Big Data e afinsConstrução de aplicações em Python e/ou SparkConstrução de soluções de Data Lake e Data WarehouseUtilização de modelos matemáticos/computacionais e análise estatística para resolução de problemasDesenvolvimento orientado a testes com uso de padrões de desenvolvimento de softwareCriação e execução deapresentações para explorar e expor os resultados obtidosGeração de relatório e documentação de projetosBusca/Pesquisa de novas ferramentas e/ou tecnologias do mercado;Desenvolvimento de aplicações orientadas a serviços e a eventos.
Requisitos e qualificaçõesImprescindíveis:
Ensino superior completo em áreas da computação (Engenharia de Computação, Ciência da Computação e afins) ou comparável experiência no mercado;Domínio das Linguagens; SQL, Python (Numpy, SciPy e Pandas) e/ou Scala;Experiência com Versionamento GitConhecimento em metodologias de desenvolvimento como TDD, código limpo, SOLID e DDDExperiência na implementação de Data Lake e Data Warehouse.
Desejáveis:
Experiência em modelagem de dados, e construções de arquiteturas OLTP e OLAPConhecimento de Bancos de dados NoSQL (Ex:
ElasticSearch, DynamoDB, MongoDB, HBase)Conhecimento de Bancos de dados Colunares (Redshift e Cassandra);
Diferenciais:
Conhecimento de computação em nuvem (AWS, GCP, Azure)Experiência na implementação de ETLs utilizando Python/Spark, EMR e GlueFamiliaridade com ecossistema Hadoop (Spark, Yarn, Airflow, Hive, Lyvi, entre outros)
Informações adicionaisAqui, você terá a oportunidade de se desenvolver profissionalmente em um ambiente colaborativo, através de programas de qualificação e treinamentos.
Então, se você ama tecnologia e quer se sentir desafiado, venha trabalhar conosco!