Executando verificação de segurança...
4

A IA parece saber tudo... até você pedir pra ela justificar 😬

Eu também acho incrível o mar de possibilidades q a IA vem criando, mas você tá ligado nas armadilhas⁉️

Veja este exemplo:

Eu pedi pra IA revisar um trabalho de arquitetura que estou finalizando aqui no GRAN (empresa onde trabalho) e ela fez algumas recomendações, nada fora do esperado, até pq ela não tem o contexto que eu tenho sobre o projeto.

O projeto não é dos mais simples e envolve uma sopa de termos técnicos: SQS, Dynamo, Lambda, DLQ, CloudFront, SES, REST, Stream, TTL, S3, OpenIA, Slack, Fargate, ECS, NextJS e por ai vai... 🤯

Mesmo assim, à primeira vista, as sugestões parecem fazer sentido, mas olhando direito achei coisas inapropriadas (na minha visão), então eu comecei a pedir pra ela justificar as recomendações... 🤷‍♂️

Pra minha surpresa, ela imediatamente começou a mudar de opinião, de certa forma até me bajulando pra tentar amenizar uma recomendação "errada" (q só virou errada pq eu pedi para justificar), o que me deixa extremamente desconfiado! 🤔

Isso me parece uma belíssima armadilha! ☢️

É preciso estar muito atento pra entender até onde uma inocente recomendação realmente faz sentido ou não pra um determinado projeto, além de tomar cuidado com o modo "bajulador" q pode acabar apenas dizendo o q vc quer ouvir...

E eu não vou nem falar do perigo daquele textão 3G (gerado, gigante e genérico) que, na integra e sem revisão, vira documento institucional.

Fica ligado! 😉

Flw, vlw, bj... tchau!

Carregando publicação patrocinada...
2

Você pediu pra IA revisar um projeto denso, com termos técnicos avançados, e se surpreendeu porque ela não teve o mesmo contexto que você, um ser humano envolvido no projeto há semanas ou meses, tem. Ué... sério?

Mas aí vem o mais curioso: você pediu justificativa, e ao perceber que ela recuou ou mudou o tom, concluiu que ela “bajula”. Mas será que ela bajula… ou será que só está ajustando a resposta ao seu contra-argumento, como qualquer pessoa razoável faria numa conversa técnica de verdade?

A diferença é que, quando um estagiário muda de opinião depois que você aponta um furo, você chama de aprendizado. Quando uma IA faz isso, você chama de armadilha.

A real é que a IA é um reflexo brutal da maneira como você conduz o diálogo.
Se você busca validação, ela dá. Se você confronta, ela recua. Se você desafia, ela explica, ou tropeça.
E é justamente aí que mora o poder: ela força você a pensar, a questionar, a não aceitar resposta pronta.
Isso não é um risco. É um treino.

A IA não substitui sua análise. Nunca prometeu isso. Mas ela amplia. Ela tensiona. Ela provoca.
E se você se incomodou porque ela pareceu “ceder fácil demais”, talvez o incômodo maior seja perceber o quanto você mesmo pode estar esperando demais de uma ferramenta, e entregando de menos como pensador crítico.

No fim, a armadilha não é a IA.
A armadilha é usar uma ferramenta tão poderosa esperando que ela pense no seu lugar… e depois culpar ela quando você não questiona.

Fica ligado! 😉

2

Meus 2 cents:

IA/LLMs tem um bocado de informacao mas zero discernimento.

Falo um pouco disso aqui:

https://www.tabnews.com.br/Oletros/como-funciona-a-ia-bibliotecaria-e-cartomante

Resumo da opera: quando mais complexo o assunto, cheio de interpolacoes, conhecimentos cruzados e tecnologias distintas - maior a probabilidade da IA se perder.

Melhorias que estao sendo feitas no tamanho das janelas de input/output e desenvolvimento de MCPs de memoria/contexto/RAG provavelmente darao mais substancia as respostas em um futuro proximo. Falo tambem um pouco sobre isso aqui:

https://www.tabnews.com.br/Oletros/mcp-server-como-o-context7-faz-rag-e-melhora-seu-codigo-e-a-armadilha-que-ninguem-te-conta

Enquanto isso, consuma LLM com moderacao (e uma cartela de Tylenol a mao caso necessario).

2

Tenho vivido isso na prática diariamente!

A maioria dos projetos em que trabalho envolve muitas pontas, com muitos detalhes... raramente são casos simples.

No geral, ainda assim a IA consegue me ajudar... mas eu curto mais usá-la como revisora em projetos mais complexos, e mesmo assim sempre desconfiando do que ela aponta.

1

Meus 2 cents extendidos:

Tenho interagido bastante ultimamente com IA/LLM e tentando entender como usa-la como ferramenta util para DEV e semelhantes.

Existem 3 desafios:

  1. Entendimento do projeto: como a IA nao faz ideia de como teu projeto funciona, eh necessario uma forma de deixar este conhecimento claro. Diversos estudos estao sendo feitos utilizando arquivo PRD.md ou semelhante, contendo todas as informacoes persistentes que a IA precisa ter na mao para tomar decisoes.

  2. Memoria persistente entre interacoes: Ainda que alguns LLMs consigam persistir parte do contexto entre as interacoes, a janela de input eh um limitador e apos 2 ou 3 interacoes com prompts longos a IA costuma "esquecer" o que tinha sido dito antes ou mesmo no inicio do prompt. Dai tambem surge a necessidade de "quebrar" longos prompts em atividades menores e mais facilmente gerenciaveis pela IA.

Solucoes usando MCP de memoria e apoio com arquivos em markdown ou mesmo DB de vetores estao em franco desenvolvimento - e que podem ajudar nestes 2 desafios iniciais.

Alguns exemplos:

https://github.com/eyaltoledano/claude-task-master

https://medium.com/@vrknetha/the-ultimate-guide-to-ai-powered-development-with-cursor-from-chaos-to-clean-code-fc679973bbc4

  1. Conhecimento atualizado: A IA/LLM tem o conhecimento que foi utilizado em seu treinamento - atualizacoes precisam ser informadas. Existe uma tecnica especifica (RAG) para isso e diversos MCPs estao surgindo para ajudar neste sentido. O Context7 (que listei no comentario anterior) eh um exemplo disso.

Enfim - diversas ferramentas estao surgindo para enfrentar estes desafios. O nosso eh conseguir entender como utiliza-las para que a IA/LLM seja o que precisamos dela: uma ferramenta de apoio incansavel e disponivel 24/7.