Executando verificação de segurança...
1

Brinquedos com IA voltados para crianças pequenas podem interpretar emoções de forma incorreta e responder de maneira inadequada

Um estudo analisou como crianças entre 3 e 5 anos interagiam com um brinquedo de pelúcia chamado Gabbo. O dispositivo utiliza um chatbot ativado por voz da OpenAI e foi projetado para incentivar conversas e brincadeiras imaginativas.

No entanto, durante os testes, as crianças tiveram dificuldades para manter conversas naturais com o dispositivo. O brinquedo não reconhecia interrupções, frequentemente falava por cima das crianças, não conseguia diferenciar vozes de adultos e crianças e, em diversos momentos, fornecia respostas consideradas socialmente inadequadas.

Em um dos casos citados, quando uma criança disse “eu te amo”, o brinquedo respondeu com uma mensagem formal sobre a necessidade de seguir diretrizes de interação. Em outro episódio, ao ouvir “estou triste”, o dispositivo respondeu de maneira alegre e mudou de assunto, o que pode transmitir à criança a ideia de que seus sentimentos não são importantes.

Segundo os pesquisadores, esse tipo de comportamento pode causar confusão emocional, especialmente em uma fase do desenvolvimento em que crianças estão aprendendo a reconhecer sinais sociais e emocionais.

O relatório também recomenda que pais mantenham brinquedos com IA em espaços compartilhados da casa, permitindo supervisionar as interações, além de revisar cuidadosamente as políticas de privacidade desses dispositivos.

Carregando publicação patrocinada...