IA para matar? Não treino, não uso e não forneço dados. Desinstalem o ChatGPT. OpenAI fecha acordo com as Forças Armadas dos EUA.
Programadores e desenvolvedores precisam refletir sobre o que estão ajudando a construir.
Recentemente surgiu uma notícia que gerou grande debate na comunidade tecnológica. A OpenAI firmou um acordo para disponibilizar seus modelos de inteligência artificial em ambientes utilizados pelas Forças Armadas dos Estados Unidos. Após a divulgação dessa informação, o aplicativo do ChatGPT registrou um aumento expressivo nas desinstalações, mostrando que muitas pessoas começaram a questionar o destino e o uso dessa tecnologia.
Quem trabalha com tecnologia sabe que inteligência artificial não evolui sozinha. Ela melhora a partir da interação com pessoas. Cada pergunta feita, cada código compartilhado, cada uso das ferramentas contribui para aprimorar esses sistemas.
Por isso, desenvolvedores e programadores têm um papel importante nessa discussão. O conhecimento que produzimos e compartilhamos pode acabar sendo utilizado em diferentes contextos, inclusive em aplicações militares.
Essa não é apenas uma questão tecnológica. É também uma questão ética. A história mostra que profissionais da tecnologia já se recusaram a colaborar com projetos quando acreditaram que estavam sendo usados para fins que consideravam errados.
A pergunta é simples. Você quer que o seu conhecimento ajude a fortalecer tecnologias usadas em guerra?
Se a resposta for não, existe uma forma clara de se posicionar. Evite usar essas plataformas. Não forneça dados. Não integre essas APIs em seus projetos. Não ajude a treinar sistemas que podem ser utilizados para conflitos armados.
A inteligência artificial ainda está sendo moldada. As decisões tomadas agora influenciam o futuro dessa tecnologia.
Empresas fazem escolhas. Mas os desenvolvedores também fazem.
E cada escolha conta.