Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Alucinações da IA Generativa são mesmo um problema?

A IA Generativa tem tomado um papel cada vez mais central em nossa vida cotidiana, e os modelos como o ChatGPT da OpenAI, se popularizaram em uma escala global. Mas até que ponto devemos confiar nesses sistemas?

Imagine uma situação onde você pergunta a um desses modelos sobre a história da Ponte Golden Gate e ele, com toda a sua “confiança”, lhe conta que ela foi transportada pelo Egito em 2016. Absurdo, não é? Esse tipo de erro, apelidado de “alucinação“, é mais comum do que gostaríamos e suas origens são tão fascinantes quanto o próprio conceito de inteligência artificial.

Esses modelos, apesar de avançados, não têm uma “inteligência” real, como nós humanos compreendemos. Eles são sistemas estatísticos que, com base em vastas quantidades de dados da web, preveem palavras ou informações com base em padrões. Uma analogia bem rudimentar e superficial pode ser feita com a previsão de textos quando digitamos no nosso smartphone. É um princípio semelhante, embora a IA seja muito mais complexa e em uma escala muito maior

Por serem baseados em probabilidade, esses modelos podem criar respostas que são gramaticalmente corretas, mas totalmente absurdas em termos de conteúdo real. Eles não têm a capacidade de discernir entre verdadeiro e falso como nós. 

Tampouco podemos atribuir intenções maliciosas a esses modelos. Eles não têm a capacidade de “querer” enganar ou confundir. Eles apenas associam palavras e conceitos conforme foram treinados e sempre tentarão produzir uma resposta, independentemente de quão distante a entrada possa estar de seus dados de treinamento.

Tudo se resume a padrões e associações de palavras. Agora, imagine as consequências: informações erradas sobre saúde, alegações infundadas sobre personalidades públicas, às vezes podem até misturar informações de fontes diferentes, mesmo que se contradigam, entre tantos outros problemas possíveis.

Felizmente, os pesquisadores estão olhando para o problema. Existem esforços em curso para reduzir essas “alucinações”, seja através da criação de bases de conhecimento de alta qualidade ou por meio de técnicas avançadas, como o aprendizado por reforço com feedback humano. 

Mas será que isso é suficiente? E, mais profundamente, deveríamos realmente ver essas “alucinações” apenas como erros?

Entendendo o problema da IA Generativa

Primeiro, temos que ser claros sobre o que significa “resolver” o problema da alucinação. Para alguns, a palavra carrega um peso de perfeição inatingível. Para outros, trata-se mais de aprimoramento. 

Vu Ha, pesquisador e engenheiro no Allen Institute for Artificial Intelligence, defende que os LLMs (Large Language Models) sempre terão algum grau de alucinação. No entanto, ele também acredita que existem maneiras tangíveis de reduzir (mas talvez não eliminar completamente) essas alucinações, dependendo de como o LLM é treinado e implementado.

Segundo Ha, ao criar um sistema de resposta a perguntas, podemos garantir maior precisão conectando-o a uma base de conhecimento bem curada, por exemplo. Ele nos oferece uma comparação intrigante: ao questionar sobre os autores de um artigo chamado “Toolformer” em diferentes LLMs, Bing Chat acertou em cheio, enquanto o Google’s Bard falhou, confundindo os autores.

A questão central aqui é se os benefícios proporcionados por um LLM compensam as alucinações ocasionais. Se os erros são mínimos e o modelo oferece ajuda na maioria das vezes, talvez valha a pena o compromisso.

E por falar em LLM, você conhece as aplicações e limitações? Clica aqui pra ficar fera no assunto!

Técnica para diminuir as alucinações

Já ouviu falar de Reinforcement Learning from Human Feedback (RLHF)? Traduzindo, seria algo como “aprendizado por reforço a partir do feedback humano“. Esta técnica, introduzida pela OpenAI em 2017, vem mostrando algum sucesso na redução de alucinações. Em resumo, trata-se de treinar o LLM, coletar mais informações, desenvolver um modelo de “recompensa” e, em seguida, refinar o LLM com esse novo modelo.

Mas mesmo o RLHF tem suas limitações. Berns, um dos pesquisadores já mencionados, alerta que o espaço de possibilidades é vasto demais para que os LLMs se alinhem totalmente com o RLHF. Em outras palavras, ainda não é um método que demanda muito trabalho a ser feito.

As alucinações da Inteligência Artificial são mesmo um problema?

Mas vamos colocar a questão sob uma nova ótica: Será que a alucinação em modelos como LLMs é realmente algo negativo?

Segundo Berns, talvez não seja. Há argumentos que sugerem que esses modelos, ao “alucinarem”, poderiam servir de catalisadores para a criatividade, atuando como parceiros co-criativos. Imagine um sistema que, mesmo não sendo 100% factual, poderia lançar luz sobre ideias ou direções completamente novas e inspiradoras.

Aqui está um ponto interessante: os problemas principais emergem quando as afirmações geradas são factualmente erradas ou quando desafiam valores humanos, sociais ou culturais. Isso se torna especialmente crítico quando as pessoas contam com os LLMs como especialistas em algum tema. 

No entanto, se pensarmos em domínios criativos ou artísticos, a capacidade de obter respostas inesperadas desses modelos pode ser extremamente valiosa. Uma resposta surpreendente a uma pergunta poderia conduzir a novos caminhos de pensamento e à conexão inédita de ideias.

Porém, é válido argumentar, como fez Ha, que os LLMs de hoje talvez estejam sendo submetidos a padrões irrazoavelmente elevados. Vamos ser honestos, nós, humanos, também “alucinamos” quando lembramos erroneamente de fatos ou eventos. Mas, com os LLMs, enfrentamos uma dissonância cognitiva, pois eles produzem saídas que parecem corretas à primeira vista, mas contêm erros quando examinados mais detalhadamente. 

Talvez a chave aqui não seja exatamente a busca pela perfeição técnica desses modelos. A solução, pelo menos por enquanto, para o dilema da “alucinação” pode estar em como nós, usuários, abordamos as previsões dos modelos: com um olhar crítico e sempre questionador. Afinal, como para usar qualquer ferramenta, o discernimento é crucial, e o que fará diferença ainda é o nosso repertório pessoal, que entra como o que determina um bom ou mau uso da inteligência artificial.

O uso de sistemas inteligentes não nos desobriga de ter atenção ou de expandir nosso conhecimento, ao contrário, é por possibilitar essa expansão que essas ferramentas podem, de fato, ser úteis, e não por fazerem algo que é para ser feito por nós, humanos.

Pensar assim talvez nos dê a perspectiva clara de que nenhuma máquina tomará nosso lugar.

Fonte: TechCrunch

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias