OpenAI fecha acordo com Pentágono para permitir uso de seus modelos de IA em rede militar restrita
Sam Altman anunciou que a OpenAI firmou um acordo com o Departamento de Defesa dos EUA para permitir o uso de seus modelos de IA em uma rede governamental classificada. O contrato estabelece salvaguardas técnicas, como a proibição de vigilância doméstica em massa e a exigência de supervisão humana no uso da força, inclusive em sistemas de armas autônomas.
O caso ocorre após um impasse entre o Pentágono e a Anthropic, que se recusou a permitir o uso irrestrito de seus modelos para “todos os fins legais”, mantendo restrições relacionadas a vigilância doméstica em massa e armas totalmente autônomas.
Diante da falta de acordo, o governo anunciou a suspensão do uso dos produtos da Anthropic e indicou a possibilidade de classificá-la como risco à cadeia de suprimentos de segurança nacional. Altman critica essa eventual classificação, afirmando que ela poderia prejudicar tanto a indústria quanto o país.
Ele defende que os mesmos termos negociados com a OpenAI sejam oferecidos a outras empresas de IA e sustenta que, caso um modelo se recuse a executar determinada tarefa, o governo não poderá forçar a empresa a modificá-lo.
O contrato da OpenAI limita a implantação à sua API em nuvem, o que impede integração direta com sistemas de armas ou hardware operacional, além de maior visibilidade sobre o uso dos modelos e a possibilidade de ajustes nas salvaguardas ao longo do tempo.
No campo comercial, a controvérsia beneficiou a Anthropic. O aplicativo Claude alcançou o primeiro lugar entre os apps gratuitos mais baixados nos EUA na App Store, superando temporariamente o ChatGPT, que ficou em segundo lugar, e o Gemini, em quarto.