Essa história de consciência da Inteligência Artificial sempre dá o que falar, né? Lembram daquela história de 2021 quando Blake Lemoine, da Google, fez a audaciosa afirmação de que um dos chatbots da empresa (o LaMDA), era senciente?
Pois é, essa afirmação garantiu a ele um bilhete único de saída da Google e deixa todos com uma pulga atrás da orelha: em um mundo onde sistemas de IA como LaMDA e ChatGPT podem bater papo como seu melhor amigo, como podemos saber se eles são ou não realmente conscientes? E tem como saber se se tornarem?
A revista científica Science fez uma publicação bem legal sobre o assunto, dá uma olhada!
Recentemente, um supergrupo de 19 especialistas — de cientistas da computação a filósofos — decidiu encarar essa questão de frente. Em vez de optar por um simples teste de “sim ou não”, eles criaram uma lista completa de atributos que poderiam indicar que nossos amigos de silício têm seus próprios pensamentos e sentimentos. Eles recentemente lançaram um artigo de 120 páginas detalhando essa discussão.
Dado que modelos LLM, como o ChatGPT, podem imitar respostas humanas (às vezes, bem demais até), torna-se um quebra-cabeça complicado responder a essas perguntas como da consciência. Só porque a Siri pode contar uma piada, não significa que ela está rindo por dentro, certo?
Os 14 critérios da lista não são a decisão final, mas sim marcadores. Se uma IA atender a suficientes critérios, podemos começar a questionar a natureza da consciência artificial. Claro que não são critérios que determinem definitivamente o que é consciência, mas os envolvidos chegaram em algum consenso sobre eles.
Os critérios para validar a consciência na inteligência artificial que foram inicialmente adotados são:
- 1. Resposta ao ambiente
- 2. Atenção
- 3. Novidade
- 4. Aprendizagem
- 5. Comportamento orientado a objetivos
- 6. Empatia
- 7. Estados afetivos (emocionais)
- 8. Autoconsciência
- 9. Metacognição
- 10. Integração
- 11. Complexidade
- 12. Independência
- 13. Criatividade
- 14. Habilidade social
Agora, a conclusão inicial da equipe foi um spoiler: nenhuma das inteligências artificiais testadas, incluindo nosso querido ChatGPT, pareceu ser consciente. Mas Robert Long, co-autor do Center for AI Safety em San Francisco, acredita que isto é só o começo. “Estamos introduzindo uma metodologia sistemática anteriormente ausente“, disse ele.
Afinal de contas, qual será a diferença entre inteligência artificial vs. humana, né? Já demos nossos primeiros pitacos por aqui. Clica aqui pra ver!
Moral e inteligência artificial
Nossa compreensão de inteligência artificial não é apenas sobre tecnologia, é profundamente moral. Megan Peters, uma pesquisadora da equipe, colocou perfeitamente: “Como tratamos uma IA com base em sua probabilidade de consciência?”.
A equipe teve alguns desafios legítimos. Um dos mais difíceis foi definir a própria consciência. Yoshua Bengio, pioneiro em aprendizado de máquina, descreveu a consciência como “uma palavra cheia de armadilhas.”. E com razão. Fala sério, esse é um problema filosófico por excelência!
Mas o grupo teve uma ideia. Eles decidiram focar no que é conhecido como “consciência fenomenal“. É aquele sentimento subjetivo, a experiência pessoal de, digamos, ver a cor vermelha ou a dor de bater o dedo. Pra quem tem intimidade com a filosofia vai reconhecer a coisa toda da fenomenologia aí!
E eis a grande questão: Como você verifica a consciência em um algoritmo? Os pesquisadores se aprofundaram nas teorias de consciência humana, esperando encontrar características que pudessem então procurar isso em uma inteligência artificial.
Somente seis teorias foram escolhidas. A partir delas, aqueles 14 indicadores nasceram.
Testando a consciência nas máquinas
Diversas foram testadas. O Dall-E2, conhecido pela geração de imagens, conseguiu atender a alguns critérios. Um modelo LLM (como ChatGPT) pareceu estar perto de ter o que os especialistas chamaram de espaço de trabalho global, que se refere a uma teoria que diz que a consciência aparece quando diferentes informações se juntam em um único ponto, como se todas fossem para uma única “prancheta” dentro de um computador.
Curiosamente, o AdA da DeepMind, treinado para controlar um avatar virtual em um espaço 3D, também marcou pontos para “agência e incorporação”. Agência se refere à capacidade de uma entidade de agir e fazer escolhas: Para IA, significa tomar decisões baseadas em sua programação e ambiente. Já a incorporação é a ideia de que o corpo físico e o ambiente moldam a percepção e o comportamento de uma entidade: Em IA, refere-se a como sua estrutura física e ambiente afetam sua capacidade de interagir e aprender.
No entanto, nenhuma inteligência artificial pôde se dar bem em mais do que em alguns critérios, insuficientes para validar a presença de consciência. Eric Elmoznino, um dos pesquisadores, disse: “Seria trivial projetar todos esses recursos em uma IA”. A razão pela qual ninguém o fez é “não está claro que eles seriam úteis para as tarefas.”
O futuro em busca da consciência na IA
Essa lista é tida apenas como um ponto de partida para essas investigações. Existe um teste de consciência mais amplo financiado pelo CIFAR (em tradução livre “Instituto Canadense de Pesquisa Avançada”) que também será aplicado a outras entidades.
Nossa compreensão da consciência é profundamente centrada no humano e isso é um desafio para pensar como isso se encaixa em uma inteligência artificial, é justamente o que limita nossa compreensão da consciência em outras entidades.
A verdade é que é só o começo de muitas perguntas, longe de chegar a uma resposta e precisamos ser sinceros que esse papo nos inspirou do lado de cá. É uma questão que recruta ciência e filosofia e… Pode ser legal uma versão brazuca Futuro Relativo de novas provocações sobre a consciência! O que você acha, hein? 🤪
Fonte: Science – artigo completo disponível