Descrição:
Requisitos:
Formação acadêmica:
Ensino Superior Completo exatas e preferencialmente em TI, como: Sistema da Informação, Ciência da Computação, Engenheira da Computação e Estatística.
Qualificações imprescindíveis:
Ter experiencia consolidada em ciência de dados com projetos tradicionais de ciência de dados (Machine Learning e modelos estatísticos) e/ou uso de IA generativa (modelos LLMs);
Desejável conhecimento em ferramentas do GCP (Google Cloud Platform), como: VertexAI, Gemini, BigQuery, Cloud SQL (PostgreSQL e/ou MySQL), Cloud Storage, Cloud Function, Cloud Data Fusion, Cloud Dataflow, Cloud Dataproc, Looker/Looker Studio e outras;
Desejável conhecimento em ferramentas open source, como: MLFlow, AirFlow, DBT, Delta/Iceberg, Apache Superset, Metabase e outras;
Solido conhecimento nas linguagens Python, Spark (PySpark) e SQL;
Solida experiencia com programação e lógica de programação;
Solida experiencia em modelagem de dados para produtos de dados, analises e dados refinados;
Desejável conhecimento e vivência em ferramentas de versionamento como GitHub, GitLab e/ou outras;
Desejável conhecimento de arquitetura de dados e plataforma de dados com conceitos e métodos de DataLake, Data Mesh e arquitetura Data Lakehouse;
Vivência em projetos ágeis e desenvolvimento produtos de dados.
Características pessoais (competências comportamentais)
Boa comunicação e relação interpessoal;
Trabalho em equipe;
Didática para treinar pessoas.
Responsabilidades:
Desenvolvimento de produtos de dados com uso de IA generativa (modelos LLMs), desde definição e refinamento do problema até a implementação final do projeto;
Analises de dados mais complexas ajudando a empresa com insights relevantes para tomada de decisão;
Modelagem de dados refinando dados, regras de negócio e definindo métodos de uso eficientes.
2411140203011219640
#J-18808-Ljbffr