Executando verificação de segurança...
10

Ferramentas de IA aumentam produtividade em apenas 16 minutos semanais, segundo estudo

Uma pesquisa realizada com 1.000 trabalhadores de escritório e 400 executivos nos EUA e no Reino Unido. 89% dos executivos afirmam que ferramentas de IA aumentaram a produtividade nas organizações.No entanto, quando se considera o tempo necessário para revisar e verificar conteúdos gerados pela tecnologia, o ganho efetivo cai para apenas 16 minutos por semana.

Executivos estimam que as ferramentas economizam, em média, 4 horas e 36 minutos semanais em tarefas relacionadas a documentos, mas relatam gastar cerca de 4 horas e 20 minutos revisando as respostas produzidas pela IA.

Já os trabalhadores afirmam economizar aproximadamente 3 horas e 36 minutos por semana com o uso da tecnologia, mas dizem gastar cerca de 3 horas e 50 minutos revisando e corrigindo os resultados gerados, o que resulta em uma perda média de 14 minutos semanais.

O estudo descreve esse fenômeno como “verification burden” (carga de verificação), situação em que a IA acelera a criação de conteúdo, mas também gera trabalho adicional de revisão, checagem de fatos e correção.

Carregando publicação patrocinada...
3

Assim como nosso amigo mayconvm, também estou tendo uma melhora significativa.
Mesmo revisando tudo gerado pela IA, alguns projetos que estimava meses de desenvolvimento, notei uma redução de pelo menos uns 60/70% no tempo que gastaria usando a IA...

2

Interessante, mas não está sendo minha experiência.
Confesso que pra mim tem sido até um pouco assustador, já que tarefas que se eu fosse executar levaria 3 dias mas a IA faz em 15min, na prática aqui no trabalho estou fazendo as tasks da sprint de 3eng sozinho e tocando coisas em paralelo ainda.

2

Eu acho q depende... Se for programação coisa grande ai tem q revisar ... Agora se for script simples so pra fazer o objetivo ai blz, concordo que ganha tempo ... Sao aquelas famosas tasks q so fazem volume no board e quase ngm quer pegar por ser muito simples ...

2
1

boa... pra contextualizar...
É um conjunto de fluxos complexos que envolve 3 serviços distintos, com rotas http, integração com kafka e orquestração de uma maquina de estado. Até o momento está próximo das 5k de linhas de código.
Porém, esse fluxo foi intensamente discutido pelo time, com vários cenários e exemplos pensados antes de levar para a IA. Também usamos a IA para fazer uma exploração em cima do código fonte e dos cenários levantados, o que fez com que o output produzido para criação das tasks ficasse bem rico.
É uma verdade que gastamos no planejamento cerca de 2h a 3hs a mais em cima de cada fluxo, mas o ganho na implementação e qualidade da entrega valeu a pena.

1

Deixa eu abrir um parênteses aqui:

@NewsletterOficial citou um artigo do nerds.xyz que citou um estudo da Foxit que por sua vez publicou o resultado do estudo. Já são 3 níveis.

Ok só que a Foxit (Empresa criadora do Foxit PDF Reader) contratou a Sapio pra fazer a pesquisa. Já estamos na 4 camada do inception.

"Based on independent research conducted by Sapio Research surveying 1,000 end users and 400 senior executives across the US and UK."

Daí o método que eles usaram foi entrevistar 1400 trabalhadores de escritório sobre seu uso de IA estimado, ou seja, eles responderam quanto tempo eles achavam que gastavam com IA e quanto economizavam. Vou repetir essa parte pq é bizarra... Os participantes simplesmente estimaram quanto tempo achavam que gastavam e economizavam com IA. Sem medição real, sem grupo controle, sem tarefa padronizada. O próprio relatório (que vc precisa criar gratuitamente uma conta no site da Foxit pra baixar ele) usa linguagem como 'believe', 'report' e 'estimate'. São opiniões, não dados objetivos.

Achei muito enviesada essa "pesquisa". Seria muito mais justo fazer um teste real com alguma tarefa específica como parâmetro.

Vamos ser justos. Como desenvolvedor eu não tenho dúvidas que um agente de IA acelera muito certas tarefas. Ela corta muito tempo que eu gastaria pesquisando sintaxe ou bibliotecas no Google, gerando código boilerplate e repetitivo que me faria configurar meia dúzia de plugins no VSCode. Também ajuda demais a entender tracebacks complexos ou bugs difíceis de reproduzir. Mas pra outras coisas ela só atrasa, e acabei apelando pra outras abordagens como MCP ou fazer na mão.

Agora essa "pesquisa" aí... ainda mais o jeito que foi colocado no título, muito sensacionalista.