Brinquedos com IA voltados para crianças pequenas podem interpretar emoções de forma incorreta e responder de maneira inadequada
Um estudo analisou como crianças entre 3 e 5 anos interagiam com um brinquedo de pelúcia chamado Gabbo. O dispositivo utiliza um chatbot ativado por voz da OpenAI e foi projetado para incentivar conversas e brincadeiras imaginativas.
No entanto, durante os testes, as crianças tiveram dificuldades para manter conversas naturais com o dispositivo. O brinquedo não reconhecia interrupções, frequentemente falava por cima das crianças, não conseguia diferenciar vozes de adultos e crianças e, em diversos momentos, fornecia respostas consideradas socialmente inadequadas.
Em um dos casos citados, quando uma criança disse “eu te amo”, o brinquedo respondeu com uma mensagem formal sobre a necessidade de seguir diretrizes de interação. Em outro episódio, ao ouvir “estou triste”, o dispositivo respondeu de maneira alegre e mudou de assunto, o que pode transmitir à criança a ideia de que seus sentimentos não são importantes.
Segundo os pesquisadores, esse tipo de comportamento pode causar confusão emocional, especialmente em uma fase do desenvolvimento em que crianças estão aprendendo a reconhecer sinais sociais e emocionais.
O relatório também recomenda que pais mantenham brinquedos com IA em espaços compartilhados da casa, permitindo supervisionar as interações, além de revisar cuidadosamente as políticas de privacidade desses dispositivos.