ChatGPT pode abrir brechas para golpes ao sugerir URLs incorretas de grandes empresas
Testes conduzidos com modelos da família GPT-4.1 indicam que o sistema apresentou falhas ao indicar os endereços oficiais de empresas dos setores financeiro, varejista, de tecnologia e de serviços públicos.
Quando solicitado a fornecer o link do site oficial, o modelo retornou o endereço correto em apenas 66% dos casos. Em 29% das respostas, as URLs levavam a páginas inativas ou suspensas, enquanto os 5% restantes apontavam para sites legítimos, porém diferentes do desejado.
Segundo os pesquisadores, esse comportamento pode ser explorado por golpistas. Ao identificar que o modelo sugere um domínio ainda não registrado, um criminoso pode adquirir o endereço e criar uma página falsa.
Isso ocorre porque a IA prioriza associações linguísticas, sem considerar critérios como reputação ou legitimidade do domínio.