Executando verificação de segurança...
3

Meus 2 cents:

IA/LLMs tem um bocado de informacao mas zero discernimento.

Falo um pouco disso aqui:

https://www.tabnews.com.br/Oletros/como-funciona-a-ia-bibliotecaria-e-cartomante

Resumo da opera: quando mais complexo o assunto, cheio de interpolacoes, conhecimentos cruzados e tecnologias distintas - maior a probabilidade da IA se perder.

Melhorias que estao sendo feitas no tamanho das janelas de input/output e desenvolvimento de MCPs de memoria/contexto/RAG provavelmente darao mais substancia as respostas em um futuro proximo. Falo tambem um pouco sobre isso aqui:

https://www.tabnews.com.br/Oletros/mcp-server-como-o-context7-faz-rag-e-melhora-seu-codigo-e-a-armadilha-que-ninguem-te-conta

Enquanto isso, consuma LLM com moderacao (e uma cartela de Tylenol a mao caso necessario).

Carregando publicação patrocinada...
2

Tenho vivido isso na prática diariamente!

A maioria dos projetos em que trabalho envolve muitas pontas, com muitos detalhes... raramente são casos simples.

No geral, ainda assim a IA consegue me ajudar... mas eu curto mais usá-la como revisora em projetos mais complexos, e mesmo assim sempre desconfiando do que ela aponta.

3

Meus 2 cents extendidos:

Tenho interagido bastante ultimamente com IA/LLM e tentando entender como usa-la como ferramenta util para DEV e semelhantes.

Existem 3 desafios:

  1. Entendimento do projeto: como a IA nao faz ideia de como teu projeto funciona, eh necessario uma forma de deixar este conhecimento claro. Diversos estudos estao sendo feitos utilizando arquivo PRD.md ou semelhante, contendo todas as informacoes persistentes que a IA precisa ter na mao para tomar decisoes.

  2. Memoria persistente entre interacoes: Ainda que alguns LLMs consigam persistir parte do contexto entre as interacoes, a janela de input eh um limitador e apos 2 ou 3 interacoes com prompts longos a IA costuma "esquecer" o que tinha sido dito antes ou mesmo no inicio do prompt. Dai tambem surge a necessidade de "quebrar" longos prompts em atividades menores e mais facilmente gerenciaveis pela IA.

Solucoes usando MCP de memoria e apoio com arquivos em markdown ou mesmo DB de vetores estao em franco desenvolvimento - e que podem ajudar nestes 2 desafios iniciais.

Alguns exemplos:

https://github.com/eyaltoledano/claude-task-master

https://medium.com/@vrknetha/the-ultimate-guide-to-ai-powered-development-with-cursor-from-chaos-to-clean-code-fc679973bbc4

  1. Conhecimento atualizado: A IA/LLM tem o conhecimento que foi utilizado em seu treinamento - atualizacoes precisam ser informadas. Existe uma tecnica especifica (RAG) para isso e diversos MCPs estao surgindo para ajudar neste sentido. O Context7 (que listei no comentario anterior) eh um exemplo disso.

Enfim - diversas ferramentas estao surgindo para enfrentar estes desafios. O nosso eh conseguir entender como utiliza-las para que a IA/LLM seja o que precisamos dela: uma ferramenta de apoio incansavel e disponivel 24/7.