Executando verificação de segurança...
1

OpenAI fecha acordo com Pentágono para permitir uso de seus modelos de IA em rede militar restrita

Sam Altman anunciou que a OpenAI firmou um acordo com o Departamento de Defesa dos EUA para permitir o uso de seus modelos de IA em uma rede governamental classificada. O contrato estabelece salvaguardas técnicas, como a proibição de vigilância doméstica em massa e a exigência de supervisão humana no uso da força, inclusive em sistemas de armas autônomas.

O caso ocorre após um impasse entre o Pentágono e a Anthropic, que se recusou a permitir o uso irrestrito de seus modelos para “todos os fins legais”, mantendo restrições relacionadas a vigilância doméstica em massa e armas totalmente autônomas.

Diante da falta de acordo, o governo anunciou a suspensão do uso dos produtos da Anthropic e indicou a possibilidade de classificá-la como risco à cadeia de suprimentos de segurança nacional. Altman critica essa eventual classificação, afirmando que ela poderia prejudicar tanto a indústria quanto o país.

Ele defende que os mesmos termos negociados com a OpenAI sejam oferecidos a outras empresas de IA e sustenta que, caso um modelo se recuse a executar determinada tarefa, o governo não poderá forçar a empresa a modificá-lo.

O contrato da OpenAI limita a implantação à sua API em nuvem, o que impede integração direta com sistemas de armas ou hardware operacional, além de maior visibilidade sobre o uso dos modelos e a possibilidade de ajustes nas salvaguardas ao longo do tempo.

No campo comercial, a controvérsia beneficiou a Anthropic. O aplicativo Claude alcançou o primeiro lugar entre os apps gratuitos mais baixados nos EUA na App Store, superando temporariamente o ChatGPT, que ficou em segundo lugar, e o Gemini, em quarto.

Fontes

Carregando publicação patrocinada...