Google DeepMind está treinando robôs em partida infinita de tênis de mesa
A empresa desenvolveu um experimento no qual dois braços robóticos disputam partidas contínuas de tênis de mesa entre si. O objetivo do projeto é permitir que os robôs aprendam mutuamente por meio da competição constante, sem pontuação final ou condição de vitória. A ideia é que cada interação sirva para aperfeiçoar gradualmente suas habilidades, tacada após tacada.
Segundo os pesquisadores, o experimento busca avançar na criação de um modelo de IA geral que possa atuar como o “cérebro” de robôs humanoides. Esses robôs, no futuro, deverão ser capazes de operar com segurança e eficiência em ambientes reais, como casas e fábricas. O tênis de mesa foi escolhido justamente por demandar habilidades simultâneas — como velocidade, tomada de decisão e estratégia.
O DeepMind também tem utilizado o modelo de visão e linguagem Gemini, do Google, para assistir aos jogos e gerar feedback em linguagem natural com sugestões estratégicas. Entre os comandos produzidos estão orientações como “bata a bola o mais para a direita possível” e “tente uma bola rasa próxima à rede”.