Executando verificação de segurança...
1

Sua IA está alucinando coisas e a culpa provavelmente é sua

Você já pediu pra uma IA indicar uma fonte, ela te deu um link bonito, você clicou... e não existia nada lá?

Ou perguntou sobre uma pessoa real, ela devolveu uma biografia completa com datas, prêmios e cargos, e você só descobriu que era mentira quando foi checar?

Isso tem nome: alucinação. E não é bug. É característica.

A IA não pensa. Ela prevê. A cada palavra que ela escreve, ela calcula qual é a próxima palavra mais provável com base no que você disse. Quando o contexto é vago, ela preenche com o que parece certo. E faz isso com uma confiança que assusta.

O detalhe que ninguém te conta: isso não é problema da IA. É problema do prompt. Deixa eu explicar.


Por que o prompt importa tanto

Eu uso IA todo dia. No trabalho, pra estudar, pra escrever, pra organizar ideias. E por muito tempo fui daquelas pessoas que ficava reclamando que "a IA não funciona, ela inventa tudo". Aí fui entender como ela funciona de verdade, e tudo mudou.

A Anthropic (empresa por trás do Claude) tem um guia sobre como estruturar prompts. São 10 passos, parece burocrático, mas quando você entende o porquê de cada um, faz todo o sentido.


10 passos para mitigar alucinação

1. Diga quem ela é

Antes de qualquer pedido, define um papel pra IA.

"Você é uma nutricionista com foco em alimentação prática para pessoas com rotina corrida."

Quando você define o papel, a IA filtra as respostas com base nesse contexto. Sem papel definido, ela responde como um generalista que sabe um pouco de tudo. E generalista que sabe um pouco de tudo é terreno fértil pra alucinação.

2. Fala como você quer que ela fale

Quer resposta técnica? Simples? Direta? Empática? Diz isso.

"Responda de forma simples, sem jargão. Como se estivesse explicando pra alguém que nunca leu sobre o assunto."

Sem isso, ela calibra o tom sozinha e ela erra.

3. Dá pra ela a fonte da verdade

Esse é o mais importante e o mais ignorado.

Se você quer que a IA fale sobre o seu produto, a sua empresa, o seu contexto específico, cole o conteúdo no prompt. Tabela de preços, descrição do serviço, política de atendimento, o que for.

"Aqui está a documentação da nossa API de pagamentos: [cola o contrato da API]. Com base nisso, me explique como tratar o retorno de erro 422 e quais campos são obrigatórios no body da requisição."

Com uma fonte real, ela não precisa inventar. Sem fonte, ela busca no que aprendeu no treinamento e aí é tiro no escuro.

4. Estabelece as regras do jogo

Diz explicitamente o que ela pode e o que não pode fazer.

"Se você não tiver certeza de algo, diga que não sabe. Não invente dados. Se a pergunta estiver fora do seu escopo, avise."

A IA por padrão tenta sempre dar uma resposta, mesmo que incompleta ou errada. Esse passo cria um contrato com o modelo.

5. Mostra um exemplo do que você quer

Sabe o que funciona melhor do que explicar o formato que você quer? Mostrar.

“Quando eu pedir análise de erro, responda assim:
Problema: timeout na API de pagamentos
Possível causa: lentidão no serviço externo ou fila acumulada
Como validar: checar logs, tempo de resposta e volume na fila
Próxima ação: testar endpoint e revisar monitoramento”

Com um exemplo concreto, a IA se baseia na estrutura da resposta no que você mostrou. Não no que ela imagina que você quer.

6. Passa o histórico quando precisar

Em ferramentas que não guardam contexto automaticamente, você pode incluir o histórico da conversa no prompt.

"Até agora falamos sobre: [resumo]. Com isso em mente, me ajude com..."

Sem histórico, cada prompt é uma conversa nova. E a IA pode contradizer tudo que disse antes sem nem perceber.

7. Faz o pedido de forma clara e separada

Não mistura contexto com pedido. Dá o contexto todo primeiro, depois faz a pergunta.

Em vez de mandar tudo embolado:
“Tenho uma API, subi um deploy ontem, começaram a aparecer erros de autenticação, alguns usuários perdem a sessão e preciso entender o que pode ser”

Prefira algo estruturado:
Contexto: tenho uma API em Laravel e, após o deploy de ontem, alguns usuários começaram a ter erro de autenticação e perda de sessão.
Pedido: analise as causas mais prováveis e sugira um passo a passo de investigação.”

Parece pequeno mas a diferença no resultado é enorme.

8. Pede pra ela pensar antes de responder

Em tarefas mais complexas, isso ajuda muito.

"Antes de me dar a resposta final, pensa passo a passo no que seria necessário considerar."

Reduz erros especialmente em análises, cálculos e decisões com múltiplas variáveis.

9. Especifica o formato

Lista? Parágrafo? Tabela? Fala explicitamente.

"Responda em 3 tópicos, cada um com no máximo 2 linhas."

Sem isso, a IA decide o formato. E muitas vezes é o formato errado pro contexto que você precisa.

10. Começa a resposta por ela quando fizer sentido

Alguns modelos permitem que você comece a resposta e peça pra ela continuar. Isso ancora o tom desde a primeira palavra.

Você escreve: "A principal vantagem desta abordagem é..."
Ela completa dali pra frente.

Menos usado. Mas poderoso quando você sabe exatamente como quer que o conteúdo comece.


Você não precisa usar os 10 passos em todo prompt. Mas quanto mais deles você usar, menos espaço a IA tem pra inventar.


Para quem está codando com IA

Se você é dev e usa LLM em algum sistema, tem uma camada a mais que vale a pena entender.

O problema que ninguém fala: context rot

Existe um fenômeno que a Anthropic chama de context rot. Quanto mais tokens você joga no prompt, mais a atenção do modelo se dilui. Ele não para de funcionar de uma hora pra outra, mas vai perdendo precisão aos poucos, como alguém tentando manter o foco depois de ler um documento de 80 páginas de uma vez.

O motivo é arquitetural: o modelo precisa cruzar cada token com todos os outros pra construir sentido. Com pouco conteúdo, ele faz isso bem. Com muito conteúdo, a atenção se espalha e os detalhes importantes começam a escorregar.

Na prática isso significa que jogar tudo no prompt não é estratégia. É desperdício duplo: você gasta tokens e ainda piora a qualidade da resposta.

Trate o prompt como config, não como texto

A maioria dos devs começa assim:

Você é um assistente de suporte ao cliente da empresa X.
Seja educado e objetivo. Não invente informações.
Se não souber, diga que não sabe...

Funciona? Funciona. Mas escala mal. É difícil versionar, difícil testar variações, difícil reutilizar entre projetos.

A alternativa é estruturar o prompt como um objeto JSON. Cada bloco dos 10 vira um campo:

{
  "role": "Assistente de suporte da Loja X, especializado em trocas e devoluções.",
  "tone": "Educado, direto e empático. Sem jargão técnico.",
  "knowledge_base": "{{CONTEUDO_DA_FAQ}}",
  "rules": [
    "Nunca invente prazos ou políticas.",
    "Se a resposta não estiver na knowledge_base, diga: Vou verificar isso para você.",
    "Se o cliente estiver frustrado, reconheça antes de resolver."
  ],
  "output_format": "Texto corrido, máximo 3 parágrafos.",
  "task": "{{MENSAGEM_DO_USUARIO}}"
}

Agora você tem um prompt que é versionável, testável campo a campo, reutilizável e auditável.

Separando o que é estático do que é dinâmico

Tokens custam dinheiro. E o maior vilão de consumo desnecessário é repetir o mesmo contexto em cada requisição.

Separa o que não muda do que muda por chamada.

Estático, vai uma vez e pode ser cacheado no system prompt:

{
  "role": "...",
  "tone": "...",
  "rules": [...]
}

Dinâmico, monta a cada chamada:

{
  "knowledge_base": "{{CHUNK_RELEVANTE}}",
  "history": "{{ULTIMAS_3_MENSAGENS}}",
  "task": "{{MENSAGEM_ATUAL}}"
}

Com essa separação você para de mandar as mesmas instruções de papel, tom e regras em cada request. Em produção com milhares de chamadas por dia, isso aparece no final do mês.

Como organizar isso na prática

Cria dois arquivos desde o início:

prompt_config.json carrega o esqueleto fixo do agente: role, tone, rules, output_format.

context_builder.js (ou equivalente na sua linguagem) monta o pedaço dinâmico por chamada: chunk relevante, histórico recente, task.

Não é over-engineering. É a diferença entre um prompt que você joga fora quando muda de modelo e um que você adapta em 5 minutos.


Resumindo

A IA alucina quando o espaço pra inventar é grande. Sua função, seja usando no dia a dia ou codando, é mitigar isso.

Para o uso comum: os 10 passos são um direcionamento. Quanto mais você usar, menos a IA precisa chutar.

Para quem está codando: trata o prompt como config. Separa o estático do dinâmico. Versiona e testa.

Carregando publicação patrocinada...