IA, produtividade e a sensação de estar virando só um “gerente de prompts”
Há algum tempo venho postando dúvidas, ideias e até alguns desabafos sobre o uso de IA.
E, sendo bem sincero, com tanta coisa surgindo ao mesmo tempo, parece que tudo está um pouco bagunçado.
A cada dia aparece uma nova ferramenta, um novo método de uso, uma nova aplicação e uma nova promessa de produtividade. Mas eu, pelo menos hoje, não consigo afirmar com segurança o que será padrão daqui a um ou dois anos — muito menos o que será algo realmente concreto no futuro.
Aliás, falar em algo “concreto” dentro da tecnologia já é, por si só, meio ousado.
A questão é que, até onde eu entendo, IA não serve apenas para escrever código. Também não acho que o objetivo seja simplesmente livrar o usuário de programar e transformá-lo em um “manager de IAs”.
E talvez seja justamente essa parte que mais me incomoda.
Eu tentei entrar nessa onda. Assinei ferramentas, testei fluxos, usei IA para código, explorei automações e tentei entender o quanto isso realmente poderia me tornar mais produtivo.
E produtividade existe, sim.
Um estudo da NBER, com mais de 5 mil profissionais de suporte ao cliente, mostrou que o uso de IA generativa aumentou a produtividade em cerca de 14%, com ganhos ainda maiores entre profissionais menos experientes.
Fonte: NBER — Generative AI at Work
Na área de desenvolvimento, um estudo sobre o GitHub Copilot mostrou que desenvolvedores com acesso à ferramenta concluíram uma tarefa de programação 55,8% mais rápido em um experimento controlado.
Fonte: arXiv — The Impact of AI on Developer Productivity: Evidence from GitHub Copilot
Ou seja: não dá para negar que IA pode acelerar muita coisa.
Mas, ao mesmo tempo, tem um outro lado que pouca gente gosta de admitir.
No fim das contas, às vezes vem um sentimento estranho: o de impostor.
Será que eu realmente entendi o que fiz?
Será que eu resolveria esse problema sem a IA?
Será que estou aprendendo ou só terceirizando meu raciocínio?
Será que estou ficando mais produtivo ou apenas mais dependente?
Existe pesquisa apontando esse risco. Um estudo da Microsoft Research em parceria com a Carnegie Mellon University analisou trabalhadores do conhecimento usando IA generativa e levantou a preocupação de que, quando a confiança na IA aumenta, o esforço de pensamento crítico pode diminuir em algumas tarefas.
Não é que a IA “deixe alguém burro” literalmente. Mas existe um risco real de dependência: usar a ferramenta para substituir o raciocínio, e não para ampliar a capacidade de pensar.
Fonte: Microsoft Research — The Impact of Generative AI on Critical Thinking
Então talvez a pergunta não seja se a IA deixa alguém “burro”.
Talvez a pergunta mais honesta seja:
Se eu uso IA para pensar por mim o tempo todo, o que acontece com a minha própria capacidade de pensar?
E isso me faz lembrar de outras mudanças tecnológicas.
Será que, quando surgiu a calculadora, alguns contadores se sentiram impostores por fazer contas com ela?
Será que, quando o Excel apareceu, muita gente sentiu que estava “trapaceando”?
Será que toda grande ferramenta primeiro assusta, depois vira padrão e, por fim, muda o que significa ser bom em uma profissão?
Talvez isso tudo faça parte do futuro.
Ou melhor: talvez isso já seja a adaptação do nosso presente.
Mesmo para quem já está no mercado de desenvolvimento de software, principalmente no frontend, e tenta entender também o mundo fullstack, tudo parece um pouco incerto.
Existe o medo.
Existe a provocação.
Existe o desafio.
No que eu vou me tornar especialista?
Vou continuar sendo desenvolvedor frontend?
Vou virar fullstack?
Vou ser, de fato, aquilo que está no título da minha formação: Analista de Sistemas?
Ou vou me tornar alguém que entende de agentes, automações, prompts, integrações, arquitetura, segurança, dados e produto ao mesmo tempo?
Hoje temos gRPC, MCP, agents, roles, skills, workflows, n8n, ferramentas de automação, copilotos, geradores de código e mais um monte de coisa surgindo a cada semana.
E o mercado também está cobrando essa adaptação.
O relatório Future of Jobs Report 2025, do World Economic Forum, aponta que lacunas de habilidades são consideradas a maior barreira para transformação dos negócios por 63% dos empregadores. O relatório também indica que 85% dos empregadores planejam priorizar requalificação da força de trabalho.
Fonte: World Economic Forum — Future of Jobs Report 2025
O mesmo relatório aponta que, em média, 39% das habilidades exigidas dos trabalhadores devem mudar ou se tornar obsoletas entre 2025 e 2030.
Fonte: World Economic Forum — Future of Jobs Report 2025 Digest
Ou seja: não é só uma sensação individual. Existe uma pressão real do mercado para que profissionais aprendam novas ferramentas, novas formas de trabalhar e novas competências.
Ao mesmo tempo, também vejo pessoas que não são desenvolvedoras criando aplicações com IA, muitas vezes sem entender direito arquitetura, segurança, privacidade, tratamento de dados ou manutenção.
E isso me preocupa.
Porque uma coisa é usar IA como apoio.
Outra coisa é usar IA como muleta.
E outra, ainda mais perigosa, é colocar algo em produção sem entender o que está acontecendo por baixo.
Até entre desenvolvedores existe essa tensão.
A Stack Overflow Developer Survey 2025 mostra que 52% dos desenvolvedores dizem que ferramentas de IA ou agentes tiveram efeito positivo na produtividade. Ao mesmo tempo, a pesquisa também mostra que 46% dos desenvolvedores desconfiam da precisão das respostas geradas por IA, contra 33% que confiam.
Fonte: Stack Overflow Developer Survey 2025 — AI
A mesma pesquisa mostra que uma das maiores frustrações dos desenvolvedores é lidar com soluções de IA que estão “quase certas, mas não totalmente certas”. Isso talvez resuma bem o problema: a IA ajuda muito, mas ainda exige revisão, responsabilidade e conhecimento técnico.
Fonte: Stack Overflow Developer Survey 2025 — AI
Então, no fim, talvez a discussão não seja simplesmente:
“Você usa IA ou não usa?”
Talvez a discussão real seja:
Você usa IA para ampliar sua capacidade ou para substituir seu raciocínio?
Porque usar IA para ganhar velocidade, revisar ideias, automatizar tarefas, analisar dados, estudar conceitos, gerar hipóteses ou validar caminhos pode ser extremamente poderoso.
Mas usar IA sem revisar, sem entender, sem questionar e sem assumir responsabilidade pelo resultado pode ser um problema enorme.
Principalmente em tecnologia.
A real questão é:
Como você usa IA hoje sendo desenvolvedor, engenheiro, analista ou qualquer outro profissional?
Você usa só para escrever código?
Usa para análise de dados?
Usa para automatizar tarefas?
Usa com n8n ou outras ferramentas?
Usa para estudar?
Usa para revisar arquitetura?
Usa para criar documentação?
Usa para testar ideias?
Usa para acelerar entregas?
E principalmente:
Você sente que a IA está te tornando mais produtivo ou, às vezes, também te faz sentir meio impostor?
Quero muito saber como outros profissionais estão lidando com isso na prática.
Porque talvez o desafio não seja competir com a IA.
Talvez o desafio seja não deixar que ela pense por nós.