Estamos superestimando os LLM (Large Language Models)? O ChatGPT, o Bard, a Siri, a Alexa e outros softwares que usam LLMs surpreendem nas respostas, mas é interessante entender como esses sistemas de inteligência artificial funcionam para sabermos tirar o melhor deles.
Você sabe o que é LLM?
Só para garantir que estamos na mesma página, vamos falar um pouco sobre modelo de linguagem das inteligências artificiais.
Imagine um robô que leu mais livros do que qualquer ser humano jamais conseguiria, e agora pode bater um papo sobre quase qualquer assunto.
Estes modelos foram treinados em montanhas de dados para prever a próxima palavra em uma frase e assim entregar aqueles resultados supreendentes.
O que os LLMs podem fazer?
- Compreensão Contextual: Ao contrário dos modelos mais antigos de PLN (processamento de linguagem natural), os LLMs têm uma capacidade aprimorada de entender o contexto em uma conversa ou texto, permitindo respostas mais relevantes e coerentes.
- Geração de Texto: LLMs podem gerar textos coerentes e gramaticalmente corretos, podendo até criar histórias, poemas, respostas técnicas e muito mais.
- Tradução: Embora não substituam sistemas especializados de tradução, esses sistemas de IA têm a capacidade de traduzir entre diferentes idiomas.
- Resposta a Perguntas: Seja buscando informações em um texto fornecido ou usando seu próprio conhecimento treinado, os LLMs são eficientes em fornecer respostas a uma variedade de perguntas.
- Sumarização: Os LLMs podem resumir textos longos, capturando os principais pontos e ideias.
- Reconhecimento de Sentimento: Eles podem ser usados para analisar o sentimento ou o tom de um texto, como determinar se uma avaliação é positiva ou negativa.
- Conversação Natural: LLMs podem manter conversas mais fluidas e naturais com os usuários, tornando-se úteis como chatbots e assistentes virtuais.
- Aprendizado com Menos Dados: Devido ao seu tamanho e capacidade, os esses modelos muitas vezes requerem menos exemplos de treinamento específicos para adaptar-se a tarefas específicas.
- Aplicações Específicas: Podem ser afinados para aplicações específicas, como assistência médica, consultoria jurídica, suporte técnico e mais, fornecendo informações precisas dentro desses domínios.
Agora, vamos desmistificar um pouco a coisa… Alguns pesquisadores da inteligência artificial têm afirmado que seus modelos mais recentes estão passando pelo teste de Turing, mostrando sinais de compreender a linguagem assim como nós humanos, falando sobre como esses sistemas baseado em LLM estivessem no nível de uma Inteligência Artificial Geral (a AGI – aquela que se supõe ser tão inteligente quanto os humanos em TUDO, ou até superá-los).
Quem se sai melhor? Humanos ou inteligência artificial? Para se aprofundar nesse assunto, veja qual foi a conclusão de alguns pesquisadores com testes comparando humanos e máquinas. Clica aqui!
Mas (e é um grande “mas”), vários estudiosos pedem cautela: Ainda que os resultados dos LLMs sejam bons, não são perfeitos.
7 limitações da Inteligência Artificial com LLM:
- Demanda precisão e clareza na definição de questões e objetivos de pesquisa para entregar melhores resultados. Como nem sempre está claro quais propriedades da linguagem estamos tentando explicar e qual teoria estamos colocando à prova, pode ser difícil avaliar a eficácia desses sistemas;
- Transparência: Há uma dificuldade em entender como os LLMs chegam aos seus resultados, o que dificulta para saber o quanto são eficientes e fica mais difícil identificar e corrigir erros ou vieses. É a tal da caixa-preta;
- Risco potencial de discriminação e preconceitos, o que permite perpetuar ou amplificar vieses e desigualdades existentes na sociedade, como vieses raciais ou de gênero, devido aos que está presente nos dados de treinamento usados para desenvolver os modelos;
- Há um risco considerável de desinformação, porque esses modelos podem gerar informações falsas ou enganosas, intencionalmente ou não, devido às limitações dos dados de treinamento ou dos algoritmos usados para desenvolver os modelos;
- Incapacidade de capturar níveis mais profundos de representação do sistema-alvo (ou seja, sintaxe, semântica e como o primeiro regula o segundo);
- Dificuldade de realização de um modelo neurobiologicamente plausível de composicionalidade e dependências gramaticais organizadas hierarquicamente, além de apresentar controvérsias em relação à representação cognitiva.
O que os pesquisadores estão apontando é que, enquanto os LLMs podem brincar com palavras e frases, eles não estão compreendendo o significado como os humanos fazem. A forma como esses modelos funcionam não é exatamente como nossos cérebros, embora sejam inspirados em seus processos cognitivos. Sendo assim, eles podem imitar algumas de nossas proezas linguísticas, mas dominar os básicos da língua? Esse é um jogo totalmente diferente!
A Inteligência Artificial entende alguma coisa? A Teoria do Quarto Chinês
Imagine que você está trancado em um quarto. Neste quarto, há uma caixa com uma série de símbolos chineses (que você não compreende, pois não sabe chinês) e um manual em português que especifica como combinar e responder a esses símbolos. Pessoas do lado de fora do quarto lhe passam alguns desses símbolos chineses (que representam perguntas em chinês) e, usando o manual, você fornece as respostas adequadas em chinês replicando o que está no manual.
Para quem está do lado de fora, parece que você realmente entende chinês, pois sempre fornece as respostas corretas. No entanto, você, trancado no quarto, não tem nenhuma compreensão real da língua; está apenas seguindo instruções.
Essa metáfora serve para criticar a ideia de que simplesmente processar entradas e saídas (como a inteligência artificial faz) é equivalente a compreender ou ter consciência. Segundo John Searle, autor dessa teoria, um computador pode ser programado para responder de forma convincente em uma conversa, mas isso não significa que ele “entende” a conversa da mesma forma que um ser humano. Ele argumenta que a verdadeira compreensão envolve mais do que simplesmente seguir instruções codificadas.
Analogamente, podemos nos aproximar de uma compreensão sobre como funcionam os modelos LLMs.
Ainda se trata do ser humano
Por mais que esses modelos de inteligência artificial possam ser (e são, de fato) surpreendentes, ainda têm limites que só os seres humanos podem ultrapassar.
Enquanto a geração atual de LLMs nos aproxima da compreensão cognitiva e neural da linguagem humana, ainda estamos longe da linha de chegada. Existem questões profundas, desafios a enfrentar e um universo de entendimento a desvendar. Por isso é bom deixar de lado o “copia-e-cola” do ChatGPT!
E da próxima vez que a Siri, a Alexa ou qualquer outra inteligência artificial tropeçar na sua pergunta, dê um desconto. Esses sistemas ainda estão aprendendo, assim como nós. Mas com cada iteração, cada modelo e cada avanço na pesquisa, vai ser possível otimizar esses sistemas e também a nossa relação com eles!
Fonte: Arvix