Entender como funciona a nossa linguagem é uma tarefa que intriga vários campos do conhecimento. Em um mundo onde a inteligência artificial (IA) continua a quebrar barreiras, uma pesquisa inovadora nos aproxima de mais entendimento sobre a aquisição de linguagem por uma nova perspectiva: os olhos de um bebê.
Em um estudo publicado na Science, uma equipe de pesquisadores liderada por Wai Keen Vong, investigador de IA da Universidade de Nova York, desbravou um território pouco explorado, empregando uma rede neural que aprendeu a reconhecer objetos e palavras simples, como ‘berço’ e ‘bola’, ao analisar gravações feitas por uma câmera acoplada na cabeça de um bebê chamado Sam.
Diferente de modelos de IA como o ChatGPT, que aprendem a partir de bilhões de pontos de dados, essa rede neural teve como base a realidade limitada e íntima de um único indivíduo em seus primeiros anos de vida. Vong argumenta que essa abordagem pode oferecer novas percepções sobre como os seres humanos adquirem linguagem, desafiando as teorias existentes sobre o aprendizado cognitivo. O sistema de IA, neste caso, construiu seu conhecimento unicamente a partir das associações entre imagens e palavras observadas, sem qualquer conhecimento prévio de linguagem programado.
Este estudo se aprofundou na perspectiva única de Sam, um bebê que vive perto de Adelaide, na Austrália, que usou uma câmera em seu capacete por cerca de uma hora, duas vezes por semana, desde os seis meses até aproximadamente dois anos de idade. Essas 61 horas de gravação capturaram fragmentos preciosos da vida de Sam, oferecendo à rede neural uma amostra representativa, mas limitada, da experiência humana inicial.
A rede neural foi treinada com 250.000 palavras e imagens correspondentes, obtidas durante atividades cotidianas como brincar, ler e comer. O modelo usou uma técnica chamada aprendizado contrastivo, aprimorando sua habilidade de discernir quais imagens e textos tendem a coexistir.
Os pesquisadores utilizaram um teste que é aplicado para testar a capacidade lingúistica dos bebês: solicitaram ao modelo que conectasse uma palavra a uma das quatro imagem candidatas, e eurpreendentemente, quando testado, o sistema foi capaz de associar corretamente palavras a imagens 62% das vezes, superando os 25% esperados pelo acaso, e se comparando com um modelo semelhante de IA, muito mais robusto, treinado em 400 milhões de pares de imagem-texto de fora deste conjunto de dados.
Além disso, a IA demonstrou uma habilidade intrigante de reconhecer objetos como ‘maçã’ e ‘cachorro’ mesmo em novos contextos, embora sua eficácia variasse dependendo da frequência e da variabilidade com que os objetos apareciam nos dados de treinamento. Porém, o modelo enfrentou dificuldades ao aprender palavras que representam uma gama mais ampla de itens, como ‘brinquedo’, evidenciando os limites do aprendizado puramente baseado em associações.
Por falar em linguagem, você já conhece o nosso dicionário mental? Clica aqui para ler mais sobre o assunto!
O complexo processo de aquisição da linguagem
Heather Bortfeld, uma cientista cognitiva da Universidade da Califórnia em Merced, vê o estudo como uma abordagem fascinante para compreender a aquisição de linguagem nas crianças. Embora o foco em um único indivíduo possa suscitar questões sobre a generalização dos resultados, Bortfeld ressalta que a pesquisa revelou o quão substancial pode ser o aprendizado nos primeiros dias de vida através da formação de associações entre diferentes fontes sensoriais.
Este estudo desafia diretamente a visão de linguistas como Noam Chomsky, que argumentam que a linguagem é complexa demais para ser adquirida apenas através de processos de aprendizagem geral. Bortfeld considera os dados deste estudo como alguns dos mais convincentes já vistos, indicando que mecanismos “especiais” podem não ser necessários para a aquisição da linguagem.
Entretanto, é fundamental reconhecer que a experiência linguística da AI foi mais limitada do que a de um bebê real, que está imerso em um ambiente rico e variado de interações. A dificuldade do modelo em aprender palavras como ‘mão’, por exemplo, destaca um componente ausente em sua programação: a experiência direta e tátil. Isso sugere que, apesar dos avanços notáveis, ainda existem aspectos cruciais do aprendizado humano que permanecem fora do alcance da IA atual.
Anirudh Goyal, um cientista de aprendizado de máquina da Universidade de Montreal, vê um potencial enorme para refinamentos adicionais, visando alinhar o modelo mais estreitamente com a complexidade do aprendizado humano. As descobertas deste estudo nos aproximam de entender mais sobre os aspectos da aquisição da linguagem, e podem ser muito importantes para avanços nas ciências cognitivas.
Fonte: Nature