Descrição:Conhecimento em GoLang, RLang e Python;Conhecimento de Banco de Dados Vetorial;Conhecimento de técnicas de aprendizado de máquina e inteligência artificial (Frameworks como Tensorflow, PyTorch, sklearn entre outros);Conhecimento de Python para backend, com framework FastAPI;Experiência em plataformas Cloud;Conhecimento em LLM (OpenAPI, Gemini etc), LangChain, LlamaIndex e Ollama;Conhecimento de PostGres;Solida compreensão de bancos de dados relacionais e não relacionais;Conhecimento de ElasticSearch ou OpenSearch.Será um diferencial:Conhecimento de BDD e TDD;Conhecimento de padrões de projeto e padrões arquiteturais.Responsabilidades:Deploy e Gestão de Repositórios: Realizar deploy e resolver conflitos de merge em repositórios Git.Desenvolvimento de Funcionalidades: Atuar em funcionalidades de média e alta complexidade envolvendo Machine Learning, IA e microsserviços.Integração com APIs: Conectar modelos de ML e LLMs a APIs e sistemas existentes para garantir acesso e uso eficiente.Desenvolvimento de Interfaces: Criar e gerenciar interfaces para comunicação entre o back-end e os modelos de ML/LLM, processando requisições e respostas adequadamente.Desenvolvimento de Pipelines de Dados: Implementar e manter pipelines para o pré-processamento e pós-processamento de dados, incluindo limpeza, transformação e interpretação dos resultados.Otimização e Escalabilidade: Trabalhar na eficiência dos modelos de ML e garantir que a infraestrutura de back-end possa escalar para lidar com grandes volumes de dados e solicitações.Armazenamento e Segurança de Modelos: Gerenciar o armazenamento e a segurança dos modelos treinados, garantindo sua integridade e privacidade.APIs de Inferência e Documentação: Desenvolver e manter APIs para acesso a modelos de ML/LLM e documentar essas interfaces para uso de outros desenvolvedores.Monitoramento e Depuração: Monitorar a performance dos modelos em produção, diagnosticar e corrigir problemas relacionados à integração dos modelos.Colaboração e Implementação: Trabalhar com cientistas de dados para entender requisitos, auxiliar na implementação de modelos e gerenciar a infraestrutura necessária para treinamento e atualizações.
#J-18808-Ljbffr