As visões de futuro da inteligência artificial sofreram grande impacto com a ascensão de modelos de linguagem avançados, como o usado ChatGPT, o LLM, despertando um misto de fascínio e preocupação sobre o surgimento repentino de uma superinteligência artificial, – fenômeno conhecido como “emergência” de inteligência. Um estudo recente apresentado na conferência de aprendizado de máquina NeurIPS em Nova Orleans sugere que os avanços são velozes e impressionantes, mas passíveis de previsibilidade.
A ideia de “emergência” na IA sugere um ponto de inflexão onde os modelos ganham inteligência de forma abrupta e imprevisível, uma noção que alimenta tanto as fantasias de ficção científica quanto os temores de um futuro dominado por máquinas. Mas, o que o recente estudo sugere é que esse cenário é mais um uma “miragem” do que uma realidade iminente. Os resultados apontam para um desenvolvimento mais gradual e previsível das habilidades de inteligência artificial.
Deborah Raji, cientista da computação da Fundação Mozilla que estuda auditoria de inteligência artificial, aponta a importância do estudo como uma crítica sólida e baseada em medições, que aponta que “nada de mágico aconteceu”, – em suas palavras.
LLM: O quanto são inteligentes?
Não sabe muito bem o que são esses LLM? Clica aqui pra se aprofundar no assunto!
Os modelos de linguagem (LLM), como usados no ChatGPT, são treinados com enormes quantidades de texto, adquirindo a capacidade de gerar respostas realistas e realizar tarefas complexas, e já demonstram habilidades impressionantes, desde a tradução de idiomas até a escrita de códigos de programação.
A pesquisa recente mergulhou fundo para investigar as diferentes formas das tão faladas “emergências” no campo da inteligência artificial, empregando métodos inovadores e olhares críticos sobre cada uma das hipóteses.
Para começar, os pesquisadores decidiram colocar os diferentes tamanhos do modelo GPT-3 da OpenAI em um teste aparentemente simples: somar números de quatro dígitos. A precisão das respostas variou consideravelmente entre os modelos menores e maiores, indo de quase nenhuma acerto até quase perfeição. No entanto, esse contraste dramático se suaviza quando se analisa quantos dígitos foram previstos corretamente, indicando uma melhoria mais matizada. E mais: ao aumentarem o volume de questões nos testes, notaram que até os modelos menores conseguiam acertar de vez em quando, mostrando que a capacidade de aprendizado não é um salto gigantesco, mas um crescimento escalonado.
Avançando nos experimentos, o estudo avaliou o modelo LaMDA do Google em tarefas variadas. Em atividades como identificar ironias ou traduzir ditados populares, onde a inteligência do modelo parecia dar saltos impressionantes, os cientistas perceberam um padrão: esses avanços eram mais visíveis em tarefas de múltipla escolha, onde as respostas eram julgadas de forma binária – certo ou errado. Mas ao refinar a análise, observando a probabilidade atribuída pelo modelo a cada resposta, – uma métrica contínua, não mais binária –, a noção de um salto abrupto de inteligência se dissipou, revelando um progresso mais gradativo.
A equipe de pesquisa também explorou o campo da visão computacional, onde há menos ocorrências reportadas de emergência. Aqui, os modelos foram desafiados a compactar e depois reconstruir imagens, e curiosamente, ao definirem um critério rigoroso para o que seria considerado uma reconstrução correta, eles puderam simular um fenômeno de emergência.
Yejin Choi, cientista da computação da Universidade de Washington, em Seattle, que estuda IA e bom senso, elogiou essa abordagem por sua criatividade, e sugere que, muitas vezes, a forma como estabelecemos parâmetros e interpretamos resultados pode influenciar nossa percepção sobre o desenvolvimento da IA.
Estes insights não apenas lançam luz sobre o verdadeiro ritmo de avanço da IA, mas também incentivam uma discussão mais matizada e fundamentada sobre como medimos e entendemos a inteligência artificial. A busca por emergência, como mostram os estudos, pode muitas vezes ser uma questão de perspectiva, metodologia e definição criteriosa de sucesso.
Será que somos tão diferentes das máquinas assim? Clica aqui pra pensar com a gente sobre o assunto!
Uma visão do futuro da inteligência artificial
Sanmi Koyejo, coautor do estudo e cientista da computação na Universidade de Stanford, enfatiza que, embora o estudo não descarte completamente a possibilidade de emergência em modelos futuros de IA, os dados atuais apontam fortemente para a previsibilidade. Isso é crucial, pois molda a nossa compreensão do desenvolvimento da IA e ajuda a estabelecer expectativas realistas.
Deborah Raji também aponta para a importância de focar mais no benchmarking – a comparação de diferentes modelos de IA com base em critérios padronizados – do que simplesmente no desenvolvimento de novas arquiteturas de rede neural. Ela sugere que os pesquisadores devem questionar como essas tarefas de IA se relacionam com aplicações no mundo real, como a capacidade de um modelo que passou no exame da LSAT (um exame para futuros advogados) de atuar como um paralegal.
O estudo tem implicações significativas para a segurança e a política relacionadas a inteligência artificial. Raji adverte contra os medos infundados baseados em reivindicações de capacidades emergentes da IA. Tais temores podem levar a regulamentações excessivamente restritivas ou desviar a atenção de riscos mais urgentes. Ela ressalta que, embora os modelos estejam melhorando, eles ainda não estão se aproximando da consciência.
Este estudo aponta que, embora os avanços em inteligência artificial sejam impressionantes, eles ocorrem de forma mais gradual e previsível do que muitos temem. Essa compreensão ajuda a navegar com mais segurança e confiança em um terreno tecnológico que continua a evoluir rapidamente, sem ceder ao sensacionalismo ou ao medo, nos dando mais chance de aproveitar os benefícios dessa tecnologia.
Fonte: Nature