Descrição:Requisitos:Formação acadêmica:Ensino Superior Completo exatas e preferencialmente em TI, como: Sistema da Informação, Ciência da Computação, Engenheira da Computação e Estatística.Qualificações imprescindíveis:Ter experiencia consolidada em ciência de dados com projetos tradicionais de ciência de dados (Machine Learning e modelos estatísticos) e/ou uso de IA generativa (modelos LLMs);Desejável conhecimento em ferramentas do GCP (Google Cloud Platform), como: VertexAI, Gemini, BigQuery, Cloud SQL (PostgreSQL e/ou MySQL), Cloud Storage, Cloud Function, Cloud Data Fusion, Cloud Dataflow, Cloud Dataproc, Looker/Looker Studio e outras;Desejável conhecimento em ferramentas open source, como: MLFlow, AirFlow, DBT, Delta/Iceberg, Apache Superset, Metabase e outras;Solido conhecimento nas linguagens Python, Spark (PySpark) e SQL;Solida experiencia com programação e lógica de programação;Solida experiencia em modelagem de dados para produtos de dados, analises e dados refinados;Desejável conhecimento e vivência em ferramentas de versionamento como GitHub, GitLab e/ou outras;Desejável conhecimento de arquitetura de dados e plataforma de dados com conceitos e métodos de DataLake, Data Mesh e arquitetura Data Lakehouse;Vivência em projetos ágeis e desenvolvimento produtos de dados.Características pessoais (competências comportamentais)Boa comunicação e relação interpessoal;Trabalho em equipe;Didática para treinar pessoas.Responsabilidades:Desenvolvimento de produtos de dados com uso de IA generativa (modelos LLMs), desde definição e refinamento do problema até a implementação final do projeto;Analises de dados mais complexas ajudando a empresa com insights relevantes para tomada de decisão;Modelagem de dados refinando dados, regras de negócio e definindo métodos de uso eficientes.2411140203011219640#J-18808-Ljbffr