Executando verificação de segurança...
6

A IA Vai Escrever o Código. E É Por Isso Que Precisaremos de Mais Programadores

Dos gigantescos ENIAC e UNIVAC, ocupando salas inteiras e operando com válvulas e relés, aos dias atuais, testemunhamos uma miniaturização e um aumento de poder computacional que beiram a feitiçaria. O clichê do smartphone, muito mais potente que os mainframes da década de 90, ou o cartão SD do tamanho de uma unha armazenando terabytes – uma capacidade que demandaria cidades inteiras década de 1960 – são apenas a ponta visível de um iceberg de trilhões de horas de engenharia acumulada.

Essa trajetória, contudo, revela um curioso descompasso. Enquanto a máquina encolhia e sua capacidade aumentava exponencialmente, a forma como nós, humanos, dialogamos com ela, embora tenha evoluído, permaneceu fundamentalmente ancorada em paradigmas visuais e táteis. Os cartoões perfurados e os impressoras matriciais deram lugar ao dueto tela-teclado, uma revolução em sua época. Depois, a Xerox PARC inventou, a Apple robou e a Microsoft popularizou a interface gráfica do usuário (GUI), com suas janelas, ícones, menus e o indispensável mouse. A tela sensível ao toque, refinou o apontar e clicar, tornando-a ainda mais intuitivo e direto.

Porém, pare e reflita: mesmo com toda essa evolução, nossas mãos e nossos olhos são os principais, senão únicos, canais de comunicação com esses seres tecnológicos. É como se tivéssemos construído viajando de foguete, mas insistíssndo em conduzi-lo com rédeas e chicote. Essa "banda estreita" de interação, representa hoje um gargalo para o pleno aproveitamento do potencial computacional que nos cerca.

Este é o prelúdio da computação ubíqua, ou pervasiva - conceito que Mark Weiser e sua trupe lá da Xerox (sim, eles de novo) já vislumbravam nos anos 90. A ideia de que a tecnologia se dissolveria no tecido do nosso cotidiano, tornando-se invisível e onipresente, parecia utopia. E, convenhamos, por décadas, foi. Faltava o "molho": miniaturização extrema, poder de processamento realmente eficiente, redes rápidas e de baixa latência e, crucialmente, um software (olá IA) capaz de interpretar contextos complexos e intenções sutis. Mas, meus caros, o molho está engrossando. A tecnologia, finalmente, parece estar alcançando a visão.

O Google Glass, com seu design de gosto duvidoso e timing desastroso, foi o mártir dessa nova era, mas se a semente da computação "olhos livres, mãos livres" foi aquele fracasso ela está brotando agora em formas mais discretas, mais inteligentes e, acima de tudo, mais úteis. Fones de ouvido que não apenas tocam música, mas sussurram informações contextuais. Óculos de realidade aumentada que sobrepõe camadas de informação útil. Wearables se comunicando com outros dispositivos para criar um ecossistema pessoal.

E o que isso significa para nós, os pedreiros do código, os arquitetos do digital? Significa que a era dourada do "codificador de telas" está com os dias contados. Por décadas, especialmente com a ascensão da web e dos aplicativos móveis, grande parte de nosso ofício se concentrou em criar interfaces visuais. Frameworks e mais frameworks, bibliotecas e mais bibliotecas, tudo para facilitar a árdua tarefa de pintar pixels em retângulos luminosos. A web, essa maravilha de fazer GUIs portáteis tornou-se, para muitos, sinônimo de programação. E sejamos honestos: com todas as suas abstrações e ferramentas, criar aplicações para a web ainda é, muitas vezes, um exercício de contorcionismo digital, uma gambiarra glorificada.

Pois bem, meus amigos, as GUIs, como as conhecemos, estão mortas. Ou, no mínimo, respirando por aparelhos, prestes a serem relegadas a um papel secundário, como o teclado numérico em nossos smartphones. Vida longa à computação "olhos livres, mãos livres"! O programador do futuro – e esse futuro já bate na porta – será menos um "codificador de telas" e mais um "arquiteto de experiências inteligentes".

Pensem nisso: por que diabos ainda precisamos "traduzir" nossas necessidades para uma série de cliques e toques numa superfície plana quando podemos simplesmente dizer o que queremos, ou quando o sistema pode inferir o que precisamos com base no nosso comportamento e no ambiente? A GUI foi uma solução brilhante para uma época em que a máquina era burra e precisava de instruções explícitas e visuais. Mas as máquinas estão ficando espertas, muito espertas.

A IA não é a vai acabar com os empregos de programadores; é a ferramenta que nos liberta da tirania da computação visual e tátil. A IA é a chave que destranca o potencial da computação pervasiva. Ela é o intérprete que permite que máquinas e humanos conversem de forma natural. E é exatamente por isso que precisaremos de mais programadores, só que de um tipo diferente. A IA vai, sim, automatizar a escrita de quase todo código que hoje é feito manualmente. Ótimo! Quem quer passar a vida clorindo divs ou escrevendo CRUDs? A IA nos livrará desse fardo, permitindo que nos concentremos no que realmente importa: definir o "Quê" e o "Porquê" não o "Como". A IA não encerra a história do programador; ela entrega uma caneta mais poderosa para escrever o próximo capítulo.

Um abraço e bons estudos!

Carregando publicação patrocinada...
1

Profundo! Otímo contexto colocado.
Eu estou começando em engenharia da computação e procuro saber no que eu foco pra seguir na carreira. Com base no que foi dito, Em que eu poderia aprofundar meus conhecimentos a partir de agora?
(Estou correndo de front-end, uma coisa colocada no texto. Por enquanto pretendo seguir rumo ao beck-end e redes.).
Abraços!

1
1

Eu penso que será o contrário. A maior parte dos problemas do mundo real não são "engenharia de foguetes", então a quantidade de programadores nascendo até em árvore vai continuar sendo exército de reserva e assim continua a rotatividade estilo Call Center.