Executando verificação de segurança...
1

Cientistas desenvolvem modelo de raciocínio inspirado no cérebro humano

O hierarchical reasoning model (HRM) é inspirado no processamento hierárquico e em múltiplas escalas de tempo do cérebro humano, refletindo como diferentes regiões cerebrais integram informações por durações variadas, de milissegundos a minutos.

Segundo a equipe, o HRM opera de forma mais eficiente e requer menos parâmetros e exemplos de treinamento. Ele conta com 27 milhões de parâmetros e 1.000 amostras de treinamento, em contraste com o GPT-5, estimado entre 3 trilhões e 5 trilhões de parâmetros.

No benchmark ARC-AGI-1, o HRM marcou 40,3%, superando o o3-mini-high (34,5%), Claude 3.7 Sonnet (21,2%) e DeepSeek R1 (15,8%). No ARC-AGI-2, o HRM alcançou 5%, contra 3% do o3-mini-high, 1,3% do DeepSeek R1 e 0,9% do Claude 3.7.

Diferente dos LLMs que utilizam raciocínio chain-of-thought, que dividem problemas complexos em etapas intermediárias expressas em linguagem natural, o HRM realiza tarefas de raciocínio sequenciais em uma única passagem. Ele conta com um módulo de alto nível para planejamento lento e abstrato e um módulo de baixo nível para cálculos rápidos e detalhados, simulando o processamento de diferentes regiões do cérebro.

O modelo também aplica uma técnica chamada “refinamento iterativo”, que avalia a cada curto período se o raciocínio deve continuar ou ser apresentado como resposta final.

O HRM está disponível publicamente no repositório sapientinc/HRM no GitHub.

Carregando publicação patrocinada...