Executando verificação de segurança...
8

Startup captura 10 mil horas de exames cerebrais para treinar modelos de IA que convertem pensamentos em texto

A startup Conduit afirma ter coletado, durante seis meses, cerca de 10 mil horas de dados neurais não invasivos de “milhares de indivíduos únicos” em um estúdio no subsolo, formando aquilo que acredita ser o maior conjunto de dados neuro-linguístico já montado até hoje.

A empresa está usando essas gravações para treinar modelos de IA que tentam decodificar o conteúdo semântico da atividade cerebral nos segundos que antecedem o momento em que uma pessoa fala ou digita. Os participantes ficam por duas horas em cabines pequenas e conversam livremente com um LLM usando voz ou digitando em teclados “simplificados”.

Os voluntários vestem um headset que utiliza sensores de Eletroencefalografia e Espectroscopia Funcional do Infravermelho Próximo em estruturas feitas em impressoras 3D, pesando quase dois quilos, projetadas para maximizar a cobertura dos sinais.

A Conduit afirma que agora está focada quase totalmente no treinamento dos modelos a partir dos dados coletados.

Carregando publicação patrocinada...
2

Esse tipo de iniciativa sempre me deixa dividido. Por um lado, é impressionante ver quanto avanço pode surgir quando você combina volume grande de dados neurais com modelos capazes de encontrar padrões semânticos que o próprio cérebro não explicita de forma consciente. Dez mil horas de EEG + fNIRS é um dataset que pouquíssima gente conseguiria montar.

Por outro lado, a fronteira ética aqui é extremamente delicada. Mesmo sendo um método não invasivo, você está coletando sinais cerebrais associados a intenção, linguagem interna e pré-formação de pensamento. Isso levanta perguntas que a gente ainda não tem resposta: quem controla esse dado, como ele é armazenado, o que acontece se o modelo começar a inferir mais do que o usuário pretendia transmitir?

É aquela situação em que a tecnologia pode abrir portas incríveis, mas também exige um debate sério sobre consentimento informado, privacidade cognitiva e limites de uso. Porque decodificar fala antes dela acontecer é fascinante, mas decodificar intenção sem consentimento é um território completamente diferente.

Interessante acompanhar, mas espero que o ritmo do hype não ande mais rápido do que o das discussões éticas.

1

Pior, a zona de pensamento é a única zona que afirma o que a gente é.

Onde se passa os pensamentos mais nócivos e tóxicos em relação a sociedade.

Imagina um sistema oraculo que consegue decidir se o seu pensamento sobre algo fosse algo "criminoso" ou "não".

Mesmo que não afete diretamente a pessoa, vai afetar a imagem que ela possui na sociedade.

1

Eu penso exatamente como você. Tecnologia pode alcançar marcos incríveis, mas o limitar entre ética e inovação é bem pequeno...

Esse tipo de matéria era algo inimaginável a umas décadas atrás, e por isso, não consigo de pensar: "Que massa".

Infeliz, junto com o sentimento de empolgação, vêm a alta possibilidade de uma tecnologia como essa ser militarizada ou ser usada em sua maior parte, para o mal. Treinar modelos de IA usando atividade cerebral pode trazer uma quantidade de informação significativa de coisas como: a tendência das pessoas em relação a X (muito útil para as grandes empresas para marketing, infelizmente para o consumidor, não posso falar o mesmo)

1

Acho que eles estão criando um headset para substituir teclado e mouse. Eles capturaram os users digitando... pegaram os sinais que a cabeça dá... em cima disso vão desenvolver o hardware apropriadamente... o treinamento foi para 'pegar' a dica que a cabeça dá quando o user quer digitar a tecla 'a' (por exemplo)

1

Parece bem interessante !
Os caras investiram no projeto certinho: um bom tempo (seis meses) para a coleta dos dados brutos e agora estão trabalhando em cima do que eles coletaram.

Agora eles devem estar tipo 'procurando padrões'.
Contextualizando: esse hype de machine learning começou com 'pattern recognition'.
Pattern recognition é a base da tecnologia de inteligência artificial.