chamada e resposta |
Por Steve Nadis
Os pesquisadores descobrem paralelos impressionantes nas maneiras como os humanos e os modelos de aprendizado de máquina adquirem habilidades linguísticas.
🔵Para as últimas manchetes, siga nosso canal do Google Notícias on-line ou pelo aplicativo. 📰 aqui
omo os cérebros aprendem? É um mistério, que se aplica tanto aos órgãos esponjosos em nossos crânios quanto às suas contrapartes digitais em nossas máquinas. Embora as redes neurais artificiais (ANNs) sejam construídas a partir de teias elaboradas de neurônios artificiais, imitando ostensivamente a maneira como nosso cérebro processa informações, não sabemos se elas processam a entrada de maneira semelhante.
“Há um longo debate sobre se as redes neurais aprendem da mesma maneira que os humanos”, disse Vsevolod Kapatsinski , linguista da Universidade de Oregon.
Agora, um estudo publicado no mês passado sugere que as redes naturais e artificiais aprendem de maneira semelhante, pelo menos quando se trata de linguagem. Os pesquisadores – liderados por Gašper Beguš , um linguista computacional da Universidade da Califórnia, Berkeley – compararam as ondas cerebrais de humanos ouvindo um som simples ao sinal produzido por uma rede neural analisando o mesmo som. Os resultados foram estranhamente iguais. “Até onde sabemos”, escreveram Beguš e seus colegas, as respostas observadas ao mesmo estímulo “são os sinais cerebrais e de ANN mais semelhantes relatados até agora”.
Mais significativamente, os pesquisadores testaram redes compostas de neurônios de propósito geral que são adequados para uma variedade de tarefas. “Eles mostram que mesmo redes muito, muito gerais, que não têm nenhum viés evoluído para fala ou qualquer outro som, mostram uma correspondência com a codificação neural humana”, disse Gary Lupyan , psicólogo da Universidade de Wisconsin, Madison, que não estava envolvido no trabalho. Os resultados não apenas ajudam a desmistificar como as RNAs aprendem, mas também sugerem que os cérebros humanos podem não vir já equipados com hardware e software especialmente projetados para a linguagem.
Para estabelecer uma linha de base para o lado humano da comparação, os pesquisadores tocaram uma única sílaba – “bah” – repetidamente em dois blocos de oito minutos para 14 falantes de inglês e 15 falantes de espanhol. Enquanto tocava, os pesquisadores registraram flutuações na atividade elétrica média dos neurônios no tronco cerebral de cada ouvinte – a parte do cérebro onde os sons são processados pela primeira vez.
Além disso, os pesquisadores alimentaram os mesmos sons “bah” para dois conjuntos diferentes de redes neurais – um treinado em sons ingleses e outro em espanhol. Os pesquisadores então registraram a atividade de processamento da rede neural, concentrando-se nos neurônios artificiais na camada da rede onde os sons são analisados pela primeira vez (para espelhar as leituras do tronco cerebral). Foram esses sinais que se aproximaram das ondas cerebrais humanas.
Continue a leitura após o anúncio:
🖥️ FONTES :
Os pesquisadores escolheram um tipo de arquitetura de rede neural conhecida como rede adversária generativa (GAN), originalmente inventada em 2014 para gerar imagens. Uma GAN é composta por duas redes neurais — um discriminador e um gerador — que competem entre si. O gerador cria uma amostra, que pode ser uma imagem ou um som. O discriminador determina o quão próximo está de uma amostra de treinamento e oferece feedback, resultando em outra tentativa do gerador e assim por diante até que o GAN possa fornecer a saída desejada .
Neste estudo, o discriminador foi inicialmente treinado em uma coleção de sons ingleses ou espanhóis. Então o gerador – que nunca ouviu esses sons – teve que encontrar uma maneira de produzi-los. Começou fazendo sons aleatórios, mas depois de cerca de 40.000 rodadas de interações com o discriminador, o gerador melhorou, eventualmente produzindo os sons apropriados. Como resultado desse treinamento, o discriminador também melhorou na distinção entre reais e gerados.
Foi nesse ponto, depois que o discriminador foi totalmente treinado, que os pesquisadores tocaram os sons “bah”. A equipe mediu as flutuações nos níveis médios de atividade dos neurônios artificiais do discriminador, que produziram o sinal tão semelhante às ondas cerebrais humanas.
Essa semelhança entre os níveis de atividade humana e da máquina sugere que os dois sistemas estão envolvidos em atividades semelhantes. “Assim como a pesquisa mostrou que o feedback dos cuidadores molda as produções infantis de sons, o feedback da rede discriminadora molda as produções sonoras da rede geradora”, disse Kapatsinski, que não participou do estudo.
O experimento também revelou outro paralelo interessante entre humanos e máquinas. As ondas cerebrais mostraram que os participantes falantes de inglês e espanhol ouviram o som “bah” de maneira diferente (os falantes de espanhol ouviram mais um “pah”), e os sinais do GAN também mostraram que a rede treinada em inglês processou os sons de maneira um pouco diferente do que o espanhol treinado.
“E essas diferenças funcionam na mesma direção”, explicou Beguš. O tronco cerebral dos falantes de inglês responde ao som “bah” um pouco mais cedo do que o tronco cerebral dos falantes de espanhol, e o GAN treinado em inglês respondeu ao mesmo som um pouco mais cedo do que o modelo treinado em espanhol. Tanto em humanos quanto em máquinas, a diferença de tempo era quase idêntica, aproximadamente um milésimo de segundo. Isso forneceu evidências adicionais, disse Beguš, de que humanos e redes artificiais “provavelmente estão processando coisas de maneira semelhante”.
Embora ainda não esteja claro exatamente como o cérebro processa e aprende a linguagem, o linguista Noam Chomsky propôs na década de 1950 que os humanos nascem com uma capacidade inata e única de entender a linguagem. Essa capacidade, argumentou Chomsky, está literalmente embutida no cérebro humano.
O novo trabalho, que usa neurônios de uso geral não projetados para a linguagem, sugere o contrário. “O artigo definitivamente fornece evidências contra a noção de que a fala requer um maquinário especial embutido e outras características distintivas”, disse Kapatsinski.
Beguš reconhece que este debate ainda não está resolvido. Enquanto isso, ele explora ainda mais os paralelos entre o cérebro humano e as redes neurais, testando, por exemplo, se as ondas cerebrais provenientes do córtex cerebral (que realiza o processamento auditivo após o tronco cerebral ter feito sua parte) correspondem aos sinais produzidos por camadas da GAN.
Por fim, Beguš e sua equipe esperam desenvolver um modelo confiável de aquisição de linguagem que descreva como máquinas e humanos aprendem idiomas, permitindo experimentos que seriam impossíveis com seres humanos. “Poderíamos, por exemplo, criar um ambiente adverso [como aqueles vistos com bebês negligenciados] e ver se isso leva a algo parecido com distúrbios de linguagem”, disse Christina Zhao , neurocientista da Universidade de Washington, coautora do novo artigo com Beguš e Alan Zhou , estudante de doutorado na Universidade Johns Hopkins.
“Agora estamos tentando ver até onde podemos ir, o quão perto da linguagem humana podemos chegar com neurônios de uso geral”, disse Beguš. “Podemos atingir níveis humanos de desempenho com as arquiteturas computacionais que temos – apenas tornando nossos sistemas maiores e mais poderosos – ou isso nunca será possível?” Embora seja necessário mais trabalho antes que possamos ter certeza, ele disse, “estamos surpresos, mesmo neste estágio relativamente inicial, com o quão semelhante o funcionamento interno desses sistemas – humano e ANN – parece ser”.
📙 GLOSSÁRIO:
Com Agências
Sobre o autor
Steve Nadis mora em Cambridge, Massachusetts. Seus artigos foram publicados em várias revistas, incluindo Discover e Astronomy. Ele é co-autor, mais recentemente, de The Shape of a Life .
O AR NEWS publica artigos de várias fontes externas que expressam uma ampla gama de pontos de vista. As posições tomadas nestes artigos não são necessariamente as do AR NEWS NOTÍCIAS.
Continue a leitura no site após o anúncio: