Executando verificação de segurança...
Em resposta a IA corporativa local
4

Hoje trabalho desenvolvendo agentes IA na empresa que trabalho, coisa que me levou a começar desenvolver meu próprio framework de geração baseado em prompt e algumas tools pre configuradas, que os agentes usam.

Se existe algo que aprendi nesse caminho, é que o modelo influencia na qualidade da resposta até um "certo ponto", mas se você quer aumentar a qualidade da resposta, você deve melhorar a qualidade do input, adicionar uma camada de reasoning e com certeza uma função busca com integração a livros/revistas medicas, que informam como cada doença atua.

Só de implementar o sistema de CoT (Chain of Thoughts - Cadeia de pensamento), já deve melhorar bastante o resultado dela, espero ter ajudado.

Carregando publicação patrocinada...
1

Obrigada pelo comentário detalhado — concordo plenamente com a ideia central. Também cheguei à conclusão de que a escolha do modelo (Llama / Mistral / Qwen, etc.) influencia a qualidade apenas até certo ponto. A partir daí, o fator limitante passa quase sempre a ser não o próprio modelo, mas a arquitetura que o envolve.

Isto é particularmente evidente na área da saúde. Mesmo com treino ou afinação baseados em fontes médicas validadas, o problema das alucinações não desaparece. Atualmente, estamos a concentrar-nos nos seguintes pontos:

  • Estruturação dos dados de entrada
  • Tentativa de controlo da camada de raciocínio
  • Normalização e padronização dos dados médicos, construindo o nosso próprio RAG