⚠ "Fundamento > Tecnologias Emergentes" ?
Olá, sou o Rangel, estudante de Ciências da Computação da UDESC e técnico formado em desenvolvimento de sistema pelo SENAI. A minha última (e primeira) publicação aqui foi a 3 anos atrás, é muito bom estar de volta.
Antes de prosseguirmos, quero mencionar que estou escrevendo esta publicação sem nenhuma auxílio de i.a generativa, então qualquer erro aqui é de total responsabilidade minha, isso vale também para os acertos 🙂.
Estamos utilizando IAs para acelerar nossa aprendizagem ou apenas pulando etapas?
Sou extremamente grato por ter sido introduzido a área da computação antes do BOOM das IAs generativas (GPT, Gemini, etc) e creio que este seja um sentimento compartilhado por outros programadores.
Hoje é muito mais fácil, se não até mesmo instantâneo, resolver qualquer problema de lógica de programação que um iniciante enfrenta.
Aprender a percorrer um vetor? Entender como funciona uma condição aninhada? Pra que serve um laço de repetição? Tudo isso está a um prompt de distância.
Utilizar i.a para fazer em segundos o que me custaria horas.
Esta atualmente deve ser a maior tentação para qualquer iniciante, ou melhor dizendo, para qualquer um no nosso ramo...
Perder tempo estudando fundamentos, por quê?
É exatamente esta discussão que pretendo iniciar:
Diferente do estudo apoiado por inteligência artificial, estudar na base do papel e caneta não trás resultados rápidos e tão visíveis quanto rodar um código entregue pelo gpt, porém, é este exercício cerebral de forçar a criação de novas sinapses que agrega valor ao profissional.
E na minha opinião, é isto que define a essência de um programador.
Você se deparar com um problema, e bater nele até achar uma solução.
Isso demanda tempo, pesquisa, teste, leitura, escrita, pensamento, imaginação, etc; um conjunto absurdamente completo de funcionalidades.
Isto não deve ser acelerado, isto é o processo de aprendizagem. Se acelera-lo, tudo é perdido, mesmo que no final você ainda tenha um código funcionando.
Rede neural multicamada em C, loucura? (sim)
Antes que pensem que sou um ativista anti-inteligência-artificial, saibam que esta é minha principal área de pesquisa e completa paixão.
Iniciei pela parte de Visão Computacional com alguns projetos guiados por vídeos no youtube. Estou dando alguns passos para trás (dos quais ninguém deve se envergonhar) para realmente entender como funciona toda a base matemática por trás das inteligências artificais.
Spoiler, é tudo pura matemática.
Tive que produzir algum sistema totalmente em C para um trabalho da faculdade, aproveitei a oportunidade para fazer minha pesquisa sobre redes neurais e seu funcionamento por trás dos panos.
O que eu recebi em troca?
- Noites mal dormidas
- Dias inteiros codificando funções (que em python qualquer biblioteca já entregaria pronta e mais otimizada)
- Muitas folhas arrancadas e pregadas na parede, cheias de desenhos e contas
Mas principalmente, uma enorme bagagem de conhecimento que ninguém neste mundo pode me tirar, esse é o meu verdadeiro tesouro, e deve ser o seu também! Não o sistema em si, mas tudo que é aprendido durante a programação dele.
Sem uso de i.a para me devolver os melhores códigos, sem bibliotecas avançadas que resolveriam meu problema em 10 linhas em vez de 100.
Estamos com tanta pressa para demonstrar valor em nossos projetos, que no final, parece que esquecemos do principal, o que realmente nos da valor, o nosso aprendizado.
Não vim trazer verdades absolutas.
Longe disso, vim abrir um tópico para discutirmos e debatermos sobre a atualidade da forma como aprendemos. Sinta-se convidado a expressar sua opinião, falar como você aprende, quais IAs (e como) você utiliza, etc...
Obrigado pela atenção! 👋
Para os curiosos, gravei 4 vídeos (±3min cada) do meu projeto para mandar para um professor. Como não é a apresentação oficial, está em um estilo mais informal:
Playlist: https://youtu.be/e2ZTtHM8uuo?si=S0Zyj-vE41R1doXk
Linkedin: https://www.linkedin.com/in/luca-mateo-rangel/