As especulações de que os LLMs são um risco a humanidade podem ter algum fundamento? Recentes pesquisas trazem novas perspectivas sobre o assunto apontando que existem grandes riscos para o seres humanos com esse modelo de inteligência artificial, mas que nós podemos estar olhando para o lugar errado…
Contrariando um medo que muitos de nós pode ter, novos estudos revelam que os LLM (modelos de linguagem de grande escala), como o ChatGPT, não conseguem aprender de forma independente ou adquirir novas habilidades sem instruções explícitas. O novo estudo, conduzido pelas universidades de Bath e Darmstadt, desmistifica o temor de que esses modelos desenvolvam habilidades de raciocínio complexas, reforçando a ideia de que, embora possam gerar linguagem sofisticada, não representam uma ameaça existencial para a humanidade. O que realmente requer atenção é o potencial de uso indevido da IA, como na geração de fake news.
Os modelos de linguagem de grande escala (LLMs) não possuem a capacidade de aprender novas habilidades sem instruções explícitas. Isso significa que permanecem previsíveis e controláveis, eliminando a preocupação de que possam evoluir de maneira autônoma e descontrolada. Essa conclusão foi detalhada em um estudo recente apresentado na 62ª Reunião Anual da Associação de Linguística Computacional (Annual Meeting of the Association for Computational Linguistics – ACL 2024).
Um dos principais achados da pesquisa é a ausência de evidências de que LLMs possam desenvolver habilidades de raciocínio complexo por conta própria. Embora sejam proficientes em seguir instruções e gerar linguagem natural, esses modelos não mostram potencial para adquirir habilidades complexas sem orientação específica. Isso significa que, mesmo com o crescimento contínuo e o treinamento em conjuntos de dados maiores, os LLMs não se tornarão entidades autônomas com capacidade de raciocínio avançado.
Você tem clareza sobre o que é um modelo LLM? Clica aqui e aprenda sobre o assunto!
A verdadeira ameaça dos LLMs
Em vez de nos preocuparmos com ameaças existenciais, devemos direcionar nossa atenção para os riscos reais associados ao uso indevido da IA, como a criação de fake news, que pode ser potencializada pela capacidade dos LLMs de gerar texto convincente. Portanto, a discussão sobre a regulação da IA deve se concentrar em mitigar esses riscos práticos.
A pesquisa foi realizada por uma equipe colaborativa liderada pelo Professor Iryna Gurevych da Universidade Técnica de Darmstadt, em conjunto com o Dr. Harish Tayyar Madabushi da Universidade de Bath. O estudo envolveu milhares de experimentos para testar a capacidade dos LLMs de realizar tarefas sem treinamento prévio explícito, investigando as chamadas “habilidades emergentes”.
Os experimentos demonstraram que a habilidade dos LLMs de completar tarefas se deve ao aprendizado contextual (ICL – do inglês in-context learning) baseado em exemplos fornecidos. Essa combinação de aprendizado contextual, memória e proficiência linguística explica tanto as capacidades quanto as limitações dos LLMs. Em outras palavras, os modelos conseguem responder a perguntas sobre situações sociais não porque possuam um entendimento profundo dessas situações, mas porque aplicam padrões aprendidos a partir dos exemplos apresentados.
Dr. Madabushi destaca que o medo de que modelos maiores possam resolver problemas novos e imprevisíveis é infundado. Apesar das discussões em eventos como a Cúpula de Segurança em IA realizada em Bletchley Park, o estudo mostra que os modelos não desenvolverão habilidades inovadoras ou potencialmente perigosas de maneira inesperada.
Para os usuários finais, isso significa que confiar em LLMs para interpretar e executar tarefas complexas sem instruções explícitas pode ser um erro. Para obter resultados eficazes, é necessário especificar claramente o que se espera dos modelos e fornecer exemplos detalhados, especialmente para tarefas que exigem raciocínio mais sofisticado.
Os resultados sugerem que as futuras pesquisas devem se concentrar em outros riscos apresentados pelos modelos de IA, como seu uso para gerar fake news. É crucial continuar controlando o processo de aprendizado dos LLMs para garantir que possam ser implantados de maneira segura.
Madabushi reforça a necessidade de abordar o potencial de uso indevido da IA em vez de temores existenciais. Gurevych acrescenta que, embora a IA não seja totalmente isenta de riscos, a suposta emergência de habilidades complexas não é suportada por evidências. Assim, podemos controlar bem o processo de aprendizado dos LLMs, o que é uma boa notícia para a segurança de sua utilização.
Desta perspectiva, podemos concluir que os verdadeiros riscos associados aos LLMs como o ChatGPT apontam muito mais para o ser humano do que para a tecnologia em si, que se apresenta em ferramentas poderosas capazes de gerar linguagem sofisticada e resultados surpreendentes, mas com suas limitações de aprendizado independente, afastando a capacidade de desenvolver raciocínio complexo, tornando os modelos previsíveis e controláveis, a depender de como nós, humanos, utilizamos a IA.
Fonte: Neuroscience News