O lugar dos seres humanos e o lugar da inteligência artificial (IA) às vezes são retratados em contraste: de um lado, cérebros biológicos, com suas limitações e plasticidade únicas; de outro, máquinas digitais, programadas para processar dados em escalas inatingíveis para nós. O que nos aproxima e o que nos distancia? Essas são questões cada vez mais presentes.

Entre leigos e especialistas, estamos sempre olhando para a inteligência artificial pensando nessa relação humano-máquina. Seja para entender a máquina, seja para entender o humano, a maioria de nós está pensando sobre essa dicotomia, e, de forma mais sistemática, isso ocorre em estudos como este: Uma pesquisa da Universidade Brown sugere que humanos e sistemas de inteligência artificial compartilham dinâmicas semelhantes entre dois tipos de aprendizado fundamentais, o aprendizado rápido e flexível em contexto, e o aprendizado incremental e gradual.
Essa pesquisa, publicada na Proceedings of the National Academy of Sciences (PNAS), traz novas perspectivas sobre como nós, humanos, aprendemos, apontando uma oportunidade promissora para guiar o desenvolvimento de ferramentas de inteligência artificial mais intuitivas, capazes de interagir com nossas formas de raciocínio de maneira mais natural.
Dois sistemas que se complementam
O ponto de partida da pesquisa é algo que já sabemos sobre a cognição humana. Dependendo da situação, podemos aprender de duas formas distintas:
- Aprendizado em contexto (in-context learning): ocorre de maneira rápida, quando conseguimos deduzir regras ou padrões a partir de poucos exemplos. É o caso de entender como funciona um jogo simples, como a velha disputa do jogo da velha, após algumas rodadas.
- Aprendizado incremental: acontece de forma lenta e cumulativa, como quando treinamos ao longo de meses para tocar uma música no piano. Aqui, o conhecimento se constrói por repetição e prática continuada.
O estudo conduzido por Jake Russin, pós-doutorando em ciência da computação na Brown, mostrou que essas duas modalidades aparecem em sistemas de inteligência artificial, e o mais interessante é que uma forma depende da outra para se desenvolver plenamente, – tanto em humanos quanto em programas de inteligência artificial.
Um dos experimentos centrais do estudo explorou a ideia de meta-aprendizado, ou seja, ensinar um sistema a aprender sobre o próprio processo de aprendizagem. Após milhares de tarefas incrementais, a inteligência artificial começou a demonstrar capacidades de aprendizado em contexto, algo que inicialmente não possuía. Em números: somente depois de enfrentar cerca de 12 mil tarefas, o sistema adquiriu a habilidade de aplicar regras de forma flexível em situações novas.
O que acontece no sistema de inteligência artificial se parece muito do que acontece com a gente. A cada experiência acumulada, nos tornamos mais capazes de aprender rapidamente algo inédito. Ellie Pavlick, professora de ciência da computação e coautora do estudo, faz um comparativo, dizendo que ao jogarmos pela primeira vez tabuleiro, precisamos de de tempo para entender as regras, mas depois de muitas vezes, já somos capazes de captar rapidamente a lógica de um jogo completamente novo.
Tarefas difíceis e erros: O potencial para a Inteligência Artificial e para humanos
Outro aspecto intrigante revelado pela pesquisa foi a identificação de trade-offs. Nesse contexto, trade-off trata-se de uma espécie de balanço ou compromisso inevitável: quanto mais um sistema (humano ou artificial) privilegia a retenção de longo prazo, menos espaço sobra para a flexibilidade imediata, e vice-versa. O estudo mostrou que, para ambos, tarefas difíceis (aquelas que exigem esforço, erros e correções constantes) tendem a consolidar melhor as informações na memória. Em contrapartida, tarefas fáceis, realizadas rapidamente e sem erros, favorecem a adaptação e a aprendizagem flexível, mas não se fixam com a mesma intensidade na memória duradoura.
Michael Frank, professor de ciências cognitivas e psicológicas e também coautor do trabalho, explica que isso ocorre porque os erros atuam como gatilhos para o cérebro (ou para a rede neural artificial) atualizar o que está armazenado. Já quando a execução é simples demais, o aprendizado não ativa os mecanismos de consolidação de longo prazo.
Essa descoberta ajuda a explicar por que, em certas situações, aprendemos de forma rápida e quase imediata, como se estivéssemos aplicando uma regra recém-formada, enquanto, em outras, dependemos de prática repetida e gradual para consolidar o conhecimento. O estudo indica que essa alternância entre modos de aprendizagem não é exclusiva dos seres humanos, mas um fenômeno compartilhado também pela inteligência artificial.
Cérebro humano e redes neurais
O estudo também propõe que o modo como esses dois sistemas de aprendizado interagem em IA se assemelha ao funcionamento da memória de trabalho e da memória de longo prazo no cérebro humano. A memória de trabalho nos permite lidar com informações de forma rápida e flexível, enquanto a memória de longo prazo armazena conhecimentos mais estáveis e duradouros.
Essa conexão é particularmente valiosa para a neurociência, pois oferece um modelo computacional que ajuda a integrar conceitos antes vistos como separados. Para Frank, a contribuição principal está em mostrar como as forças e fraquezas de diferentes estratégias de aprendizado podem ser estudadas em paralelo, lançando luz sobre aspectos ainda pouco compreendidos do funcionamento cerebral.
Um dos testes realizados ilustra bem essa dinâmica. Inspirado em experimentos com humanos, o estudo desafiou o sistema de inteligência artificial a combinar conceitos já conhecidos de forma inédita. Se o sistema havia aprendido listas separadas de cores e de animais, poderia identificar corretamente uma nova combinação, como “girafa verde”?
No início, a resposta era negativa. Foi apenas depois do treinamento incremental massivo que o sistema conseguiu realizar essa generalização, mostrando como o aprendizado flexível depende, em grande medida, da base construída pela prática incremental.
Impactos práticos: do laboratório para a sociedade
Os resultados da pesquisa não ficam restritos a um debate acadêmico, eles têm implicações diretas no desenvolvimento de sistemas de IA que podem coexistir conosco de forma mais harmoniosa, mais alinhados aos nossos modos de pensar.
Um exemplo citado pelos autores é o campo da saúde mental. Assistentes digitais capazes de compreender como humanos aprendem e recordam informações poderão oferecer interações mais empáticas, adaptando-se tanto à necessidade de flexibilidade quanto à de retenção.
Ellie Pavlick destaca que para termos assistentes de IA úteis e confiáveis, é essencial que haja consciência, tanto do lado humano quanto da máquina, sobre como cada um aprende, em que pontos se parecem e em que pontos divergem.
Um primeiro passo promissor
Embora os experimentos ainda representem um estágio inicial de investigação, oferecem um caminho promissor para unir campos distintos como a psicologia cognitiva, a neurociência e a inteligência artificial. Entender o que seres humanos e máquinas compartilham em seus princípios de aprendizado, a pesquisa sugere que futuros sistemas poderão ser desenhados de forma mais próxima à nossa própria cognição.
O estudo foi financiado pela Office of Naval Research (ONR) (agência de pesquisa da Marinha dos Estados Unidos), que apoia avanços científicos e tecnológicos com impacto estratégico, em conjunto com com o National Institute of General Medical Sciences (NIGMS), instituto ligado aos National Institutes of Health que investe em pesquisas fundamentais em biologia e saúde. Esse esforço conjunto reforça a relevância do tema não apenas para a ciência básica, mas também para aplicações práticas em áreas estratégicas.
Os avanços das tecnologias baseadas em inteligência artificial têm feito importantes pontes para estudarmos não só máquinas, mas também seres humanos. Descobrir que nossa interação entre aprendizado incremental e aprendizado em contexto se assemelha com os processos da IA pode ampliar nossa compreensão sobre o processos de aprendizado, tanto de origem biológica quanto sintética: De um lado, ajuda a explicar por que alternamos entre estratégias rápidas e flexíveis e estratégias lentas e acumulativas;l de outro, oferece um guia para criar máquinas que não apenas executam cálculos, mas podem processar dados de forma semelhante à nossa.
Fonte: PNAS