Deixa eu abrir um parênteses aqui:
@NewsletterOficial citou um artigo do nerds.xyz que citou um estudo da Foxit que por sua vez publicou o resultado do estudo. Já são 3 níveis.
Ok só que a Foxit (Empresa criadora do Foxit PDF Reader) contratou a Sapio pra fazer a pesquisa. Já estamos na 4 camada do inception.
"Based on independent research conducted by Sapio Research surveying 1,000 end users and 400 senior executives across the US and UK."
Daí o método que eles usaram foi entrevistar 1400 trabalhadores de escritório sobre seu uso de IA estimado, ou seja, eles responderam quanto tempo eles achavam que gastavam com IA e quanto economizavam. Vou repetir essa parte pq é bizarra... Os participantes simplesmente estimaram quanto tempo achavam que gastavam e economizavam com IA. Sem medição real, sem grupo controle, sem tarefa padronizada. O próprio relatório (que vc precisa criar gratuitamente uma conta no site da Foxit pra baixar ele) usa linguagem como 'believe', 'report' e 'estimate'. São opiniões, não dados objetivos.
Achei muito enviesada essa "pesquisa". Seria muito mais justo fazer um teste real com alguma tarefa específica como parâmetro.
Vamos ser justos. Como desenvolvedor eu não tenho dúvidas que um agente de IA acelera muito certas tarefas. Ela corta muito tempo que eu gastaria pesquisando sintaxe ou bibliotecas no Google, gerando código boilerplate e repetitivo que me faria configurar meia dúzia de plugins no VSCode. Também ajuda demais a entender tracebacks complexos ou bugs difíceis de reproduzir. Mas pra outras coisas ela só atrasa, e acabei apelando pra outras abordagens como MCP ou fazer na mão.
Agora essa "pesquisa" aí... ainda mais o jeito que foi colocado no título, muito sensacionalista.