Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

É mentira? Estudo aponta influência da IA e social na determinação de declarações falsas

Acusar alguém de estar proferindo mentiras nunca foi uma coisa fácil, e essa questão vem se apresentando com novas nuances com a evolução da inteligência artificial. Um estudo recente revela um impacto significativo em como as pessoas acusam outras de mentir. Publicado em 27 de junho na revista iScience, essa pesquisa mostra que a presença de IA aumenta a probabilidade de acusações de mentira, sugerindo implicações sociais e a necessidade de cautela na implementação dessas tecnologias.

Um dos principais achados do estudo é que previsões feitas por IA levam a um aumento nas acusações de mentira quando comparadas ao julgamento humano isolado. Isso quer dizer que quando a IA indicava que uma declaração era falsa, os participantes eram significativamente mais propensos a considerá-la uma mentira. Este fenômeno ocorre mesmo com a relutância geral das pessoas em utilizar ferramentas de detecção de mentiras baseadas em IA.

Os pesquisadores, liderados por Nils Köbis, um cientista comportamental da Universidade de Duisburg-Essen na Alemanha, buscaram entender se a presença da IA alteraria as normas sociais e comportamentos associados às acusações de mentira. Para isso, pediram a 986 participantes que escrevessem uma descrição verdadeira e uma falsa sobre seus planos para o próximo fim de semana. Com esses dados, treinaram um algoritmo capaz de identificar com 66% de precisão quais declarações eram verdadeiras ou falsas, uma taxa significativamente superior à precisão média humana.

Posteriormente, mais de 2.000 pessoas foram recrutadas para atuarem como juízes dessas declarações, divididas em quatro grupos: “linha de base”, “forçado”, “bloqueado” e “escolha”. No grupo base, os participantes fizeram suas avaliações sem a ajuda da IA. No grupo forçado, os participantes sempre recebiam uma previsão da IA antes de fazerem seus julgamentos. Nos grupos bloqueado e escolha, os participantes tinham a opção de solicitar uma previsão gerada pela IA, mas somente aqueles no grupo escolha realmente recebiam essa previsão.

Declarações sobre mentiras: Influência da IA e social

Os resultados mostraram que os participantes do grupo base tiveram uma precisão de 46% ao identificar declarações como verdadeiras ou falsas, com apenas 19% acusando as declarações de serem falsas, mesmo sabendo que 50% delas era mentira. Isso confirma a tendência humana de evitar acusações de mentira devido às normas sociais, pois embora as pessoas identificassem mentiras com certa precisão, elas eram relutantes em fazer acusações diretas.

No grupo forçado, onde os participantes recebiam uma previsão da IA independentemente de desejarem ou não, mais de um terço acusou as declarações de serem falsas. Esse número é significativamente maior comparado aos grupos que não receberam previsões da IA.

Quando a IA previa que uma declaração era verdadeira, apenas 13% dos participantes a consideravam falsa. Contudo, quando a IA indicava uma declaração como falsa, mais de 40% dos participantes a acusavam de ser mentira. Entre aqueles que solicitaram e receberam uma previsão da IA, 84% adotaram a previsão e fizeram acusações conforme a indicação da IA.

Apesar de a IA demonstrar uma maior precisão na detecção de mentiras, apenas um terço dos participantes nos grupos bloqueado e escolha optou por solicitar previsões da IA. Essa relutância pode ser atribuída a um efeito robusto observado em diversos estudos: as pessoas tendem a superestimar suas habilidades de detectar mentiras, mesmo sendo notoriamente ruins nessa tarefa.

Detecção de mentiras e implicações sociais

Os achados deste estudo têm profundas implicações para a sociedade e os formuladores de políticas. A tendência das pessoas de confiar na IA para fazer acusações de mentira, mesmo com suas limitações e propensão a reforçar preconceitos, destaca a necessidade de uma abordagem cautelosa ao implementar essas tecnologias em contextos sensíveis. Por exemplo, no controle de fronteiras ou na concessão de asilo, onde as decisões têm consequências graves, a dependência excessiva de IA poderia levar a injustiças significativas.

No ano passado o MIT analisou o efeito dos vieses da IA na medicina. Clica aqui para ler!

Nils Köbis expressou preocupações sobre o hype em torno da IA, apontando que muitas pessoas acreditam que esses algoritmos são extremamente potentes e objetivos. No entanto, essa percepção pode levar a uma confiança excessiva na tecnologia, mesmo quando ela não funciona tão bem quanto se espera. Portanto, é crucial que os formuladores de políticas reconsiderem o uso da IA em questões importantes e sensíveis, garantindo que não haja um excesso de confiança na tecnologia em detrimento de julgamentos humanos mais contextualizados e informados.

Essa pesquisa revela um aspecto inquietante da interação humana com a inteligência artificial: a disposição de delegar a responsabilidade de acusações de mentira a uma máquina. Este comportamento, embora compreensível em um mundo cada vez mais tecnológico, exige uma reflexão profunda sobre como queremos que a IA influencie nossas decisões sociais e jurídicas.

Fonte: Neuroscience News

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias