Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Humanos são mais parecidos com as máquinas do que pensamos

O medo de que a inteligência artificial vá acabar substituindo o ser humano vem muito do chacoalhão que essa nova tecnologia deu no mercado, na sociedade e até na nossa compreensão sobre nós mesmos. Com razão, começamos a olhar preocupados para essa nova realidade que se impõe, à medida que nos questionamos se uma máquina pode ser mais inteligente que nós. Seria mais um desafio existencial?

Antes, outra questão se coloca. O que exatamente é inteligência? Sim, porque se estamos procurando saber se essa tecnologia é mais que nós em alguma coisa, é preciso saber do que estamos falando, afinal de contas. O problema todo parece estar nessa palavrinha que tem sido atribuída ao homem e à máquina. E pronto. Tá aí a confusão começando…

inteligencia-artificial-vs-ser-humano

Vale tentar buscar o que tem na inteligência artificial e o que tem em nós, passando por alguns pontos:

Inteligência artificial? Humana? O que é inteligência?

Shane Legg e Marcus Hutter, em um artigo publicado em 2007, apresentam um ponto de partida interessante para propor o que é inteligência, chegando a uma primeira conclusão: Não se trata de uma habilidade em si, mas, grosso modo, pode ser definida como um recurso que mensura um conjunto de habilidades mentais que permitem atingir determinados objetivos da melhor forma, considerando o fator imprevisibilidade.

Se um daqueles coaches fosse te dizer, ele te diria assim: Inteligência é a capacidade de ter resiliência para agir buscando ter melhor performance.” (Fala sério, tão claro quanto água!)

A proposta desses autores sugere que a inteligência é, portanto, o efeito de um conjunto de habilidades, tais como raciocínio, planejamento, resolução de problemas, pensamento abstrato, e por aí vai.

Nesta ideia, as habilidades são implícitas, sem nenhum tipo de “checklist”. Isso quer dizer que não precisa necessariamente ter todas as habilidades para ter o selinho imaginário de “aqui tem uma inteligência”. É mais algo como: conseguiu lidar com as variáveis, atingiu o objetivo, tem inteligência.

Portanto, isso estaria presente tanto na máquina quanto no homem, sugerindo a ocorrência do que chamam de “inteligência universal“. Mas se não é isso, então o que nos diferencia? 

Podemos argumentar que temos a memória, a capacidade de raciocinar, de aprender com experiências passadas… Tá bom. Mas parece que se formos arriscar sobrepor essas coisas nos modelos de aprendizado de máquina, em certa medida, podemos identificar os equivalentes. 

Pra mim, o argumento de que a nossa inteligência não é superável pela inteligência artificial não é suficiente, soa fraco. Ainda mais que já tem cientista defendendo a ocorrência de um certo grau de pensamento abstrato da máquina, como é o caso do  Sam Bowman, cientista de tecnologia de linguagem da Universidade de Nova York, que também trabalha para a empresa de IA Anthropic em San Francisco.

Vamos buscar mais então.

A criatividade

“Ah, mas nós somos mais criativos!”. Depende. O que é criatividade? Se buscarmos um consenso sobre a criatividade, a coisa pode complicar. 

No senso comum, encontramos a criatividade relacionada ao ineditismo, ao caráter irrepetível de uma ideia ou de uma obra. Acontece que isso a máquina também tem: os outputs podem até ser parecidos às vezes, mas nunca serão exatamente iguais. Fora a coisa da alucinação da inteligência artificial. Parece mais ainda que existe criatividade ali. 

Pode-se argumentar que é uma coisa nossa, do ser humano. E até acho que a nossa criatividade seja mesmo diferente, porque criamos sentido, porque interpretamos singularmente o mundo. 

Mas, pensando no conceito do inédito e irrepetível do senso comum, não tá suficiente esse argumento pra mim, não.

A racionalidade

Somos seres racionais! Só pode ser isso. 

…Será?

Para Aristóteles a racionalidade estava colocada como uma característica constitutiva do ser humano, o que o diferencia como ser único, diferente de outros animais. Principalmente se tratando da sua razão prática, que o filósofo atribui à ética e à moral. Há quem diga que essa racionalidade parece não estar presente nas máquinas.

Isso pode ser verdade. E aliás, é precisamente essa a razão que é muitíssimo importante e discutida pelo mundo todo quando a pauta está relacionada ao uso responsável da inteligência artificial. 

Mas se a moral e a ética (e aqui não tenho a mínima intenção de discorrer sobre uma possível definição/distinção desses conceitos) podem ser internalizadas até por um ente abstrato como “a sociedade”, e se hoje o aprendizado por reforço está dando diretrizes humanas às máquinas, será que essa ética e essa moral não podem ser “ensinadas” às máquinas

Talvez ainda não seja assim, da forma mais eficiente possível, porque o acesso pelo público amplo à inteligência artificial é recente, e os problemas são tão novos quanto esse uso mais abrangente. Portanto, pode ser que seja só questão de tempo para que a IA possa “agir eticamente” ou, pelo menos, de uma maneira eticamente aceita, à medida que reflete o comportamento eticamente aceito da sociedade. Não?

Tem outra objeção possível para defender a nossa racionalidade superando a da máquina: nossa capacidade de abstração. Porém, esse já é um ponto de divergência entre os pesquisadores da inteligência artificial. Já mencionei aqui anteriormente.

Sinceramente? O argumento da racionalidade não me pegou, não.

A consciência

Aí a encrenca é pesada!

Mas, pensa comigo… Se eu pender pro lado da fenomenologia de Edmund Husserl, olha o que acontece:  A consciência é sempre “consciência de”, sendo então uma atividade, não uma substância, e essa atividade está sempre direcionada a um objeto, ao que ele nomeia como intencionalidade. Toda experiência consciente é, portanto, direcionada a ou refere-se a algo além dela mesma, externa a ela

Desta definição podemos entender que a consciência para o autor se trata de processos cognitivos que dão conta da apreensão, interpretação ou entendimento do objeto da consciência. E vemos isso em autores mais atuais, como Steven Pinker, de onde podemos depreender que os processos cognitivos humanos são tidos como as diversas operações realizadas pela mente/cérebro (os dois termos são utilizados por ele) para manipular informação, sendo totalmente replicáveis de forma sintética. Inclusive isso parece muito com aquela coisa da “inteligência universal” que falei logo no começo.

“Ah, mas a nossa consciência é reflexiva, pensa sobre a própria consciência.” – você pode pensar. Concordo. Verdade maior não há. 

Mas… Não consigo deixar de pensar nos sistemas GAN (Generative Adversarial Network) de machine learning. Essas redes neurais adversativas vão “pensando” de forma autônoma, se melhorando conforme vão executando suas operações. Parece algo assim: uma parte geradora e uma discriminadora de uma mesma “mente” sintética. E será que isso não seria muito parecido com o processo que executamos quando pensamos sobre nossa própria consciência?

E tem mais um detalhezinho que me incomoda no que tange ao assunto: no nosso contexto social, falar em consciência parece muito ter um caráter normativo da moral… 

Eu sei lá, a essa altura, esse argumento “já me deu gastura”, como diria a saudosa senhora, Dona Dinha.

O sentimento

Aí não tem como, a máquina não sente.

Não mesmo mas, de novo se eu pensar no senso comum, me parece abstrato a ponto de eu não entender esse treco nem no ser humano, que dirá na máquina. Como é que vou querer sustentar meu argumento aqui, então? E a razão é muito simples: quantos sorrisos não escondem dores gigantes?

Falha minha, portanto. E por reconhecer minha incompetência de lidar com essa característica humana, – que acho mesmo ser muito nossa – , não tenho nem o que falar sobre a possibilidade de isso um dia ocorrer na máquina ou não. 

Porque muitas vezes nós não reconhecemos o sentimento em si, nem o sentimento do outro, reconhecemos o que o outro mostra, que se parece com o sentimento que reconhecemos em nós

Então será que não seria suficiente a máquina “parecer ter” sentimento para que nós identifiquemos que, de fato, ela tem? Porque venhamos e convenhamos, a gente vê muito mais o “parecer” do sentimento do outro, já que nunca veremos o mundo pelos olhos dos outros.

É complexo. Pra mim, esse argumento até é válido, mas é muito abstrato, e eu sou bem incompetente para tentar definí-lo como algo diferente de um efeito. E eu preciso achar causas: O que causa o ser humano que não causa a máquina.

O conhecimento

Stuart Mill traz uma perspectiva utilitarista do conhecimento: valioso à medida que pode produzir algo que possa ser convertido em riqueza material. Uma proposta bem coerente com nossos dias atuais. 

Avançando, temos o conhecimento em Spinoza que, na leitura original e genial do meu querido professor André Martins, é o mais poderoso dos afetos, porque se refere àquele que permite ao ser humano saber como se relacionar com o mundo de forma a ter uma vida boa, ter bem-estar. Estou com André: essa é a finalidade do conhecimento, o que de mais importante tem em conhecer. Se não faz bem, vai aprender o que, para que?

Mas sendo o conhecimento passível de valorações tão diversas, tô achando o argumento objetivamente mais fraco do que minha fé nele para sustentar a distância entre humano e máquina. 

Próximo!

O que pode diferenciar?

Posso pensar ainda em um monte de características e conceitos que se referem ao ser humano e que são passíveis de uma investigação minuciosa, buscando argumentar e contra-argumentar o quão poderiam servir de razões suficientemente fortes para serem tidos como o que nos diferencia dos sistemas de inteligência artificial.

Tentando abreviar as coisas, tenho uma proposta que, embora também abstrata, contém alguns aspectos que, a meu ver, são suficientes e podem trazer alguma clareza à questão. Acredito que o que nos diferencia das máquinas é precisamente a nossa humanidade. E… tá… aqui eu caí no que falei que não queria: na abstração – BEM abstração mesmo, diga-se de passagem.

Mas embora seja um conceito abstrato, tem muito que daí depreendemos, ainda que não haja uma noção objetiva do que seja a humanidade. Porque vivemos nisso, com isso, por meio disso… É o que é e que está, mesmo que não saibamos definir. E isso já diz muito sobre nós, sobre a nossa essência, que consegue compreender algo sem que isso possa ser explicado de forma clara e sistemática.

A humanidade é o corpo que se afeta e o conatus de Spinoza, o hedonismo de Epicuro, a vontade de potência de Nietzsche, a espiritualidade de Sponville e até a angústia de Kierkegaard, o tédio de Heidegger. “Ous” e “es” entre todas essas propostas filosóficas, um pouco disso, daquilo, ou tudo isso junto: Qualquer das alternativas e combinações possíveis daria conta do recado.

Mas quero tentar me aproximar de algo que possa sustentar de uma forma um pouco mais clara, um pouco mais fácil de ser percebida, na medida do possível, o que nessa noção de humanidade fica claramente identificável por todos nós. A meu ver, duas coisas, pelo menos, ficam mais óbvias dentro dessa abstração: a hereditariedade e o saber-se mortal.

Todo ser humano, independente de quem seja, é filho de alguém, – ideia que não vem de mim, mas me explica muito. Sponville foi cirúrgico em sua aparente simplicidade ao apontar algo que é muito nosso. E tá errado? Num tá. Do ponto de vista genético, não tem como um computador ser filho de alguém. 

Vamos pular aquela coisa de um projeto ser “como se fosse um filho”. Vá lá, pode ser encarado assim pelos desenvolvedores de inteligência artificial mais dedicados, dado o envolvimento emocional no desenvolvimento de uma ferramenta, mas não tem um DNA ali que faça alguma máquina filha de alguém, tem? 

Tá certo que um animal é filho também, mas não é filho como um ser humano é filho. O saber-se filho, a árvore genealógica, a influência das gerações… É diferente. Ou não?

E a segunda coisa que vejo estar contida no que entendo por humanidade é que sabemos que vamos morrer. E não importa no que cada indivíduo acredite, se tem depois, se não tem, o fato é que nós sabemos que a vida vai acabar, – uma das características que faz Montaigne desconfiar da nossa superioridade em relação a outros animais.

Dizem por aí que já existe a possibilidade de sermos “amortais”, – não imortais. Ou seja, que poderemos não morrer mais de causas naturais, só de, por exemplo, um acidente. Mas até o momento, isso pra mim soa algo distante a ponto de parecer impossível de ser realizado. Não parece concreto, e até que se prove o contrário, eu assumo o que já é dado: todo mundo vai morrer.

Há quem diga que isso é um sentimento. E é uma visão razoável e justificável, mas acredito se tratar de algo tão concreto que está anterior a qualquer sentimento, é aquele lugar da causa que falei, não do efeito. Nossas perguntas ou nossas respostas sobre a morte não nos dizem muito sobre a morte em si, mas dizem muito sobre a vida humana, logo, sobre a humanidade. Parece que o que quer que pensemos sobre o momento da morte, o antes ou o depois, diz muito sobre como vivemos. E é esse “saber-se mortal” que não vejo como poderia haver em uma máquina. 

Esses dois pontos que estão dentro de algo maior que chamo de humanidade não são suficientes para definir a humanidade. Existem, de fato, tantas outras coisas, mas estes dois aspectos são os que posso identificar claramente como diverso de qualquer inteligência artificial, por mais inteligente que possa ser. E é algo fácil de qualquer um de nós ver… Pelo menos, eu acho que seja.

Há tanta coisa além disso. Não duvido. E mais do que esses pontos que eu trouxe tentando dar mais clareza a essa busca, as perspectivas subjetivas trazem ainda muito mais que pode sustentar de forma consistente o que para mim é muito óbvio: nada, nunca, vai tomar o lugar que é nosso.

Flaw Bone

Flaw Bone

Pesquisadora, curiosa e comunicadora | Filosofia Prática - UFRJ 🙃
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias