E se a inteligência artificial der a palavra final? Você já reparou como muitas vezes é mais fácil justificar uma escolha quando não somos nós mesmos que apertamos o botão final? Pois bem, o fenômeno psicológico de tendência a se afastar das consequências de um ato ganhou uma nova dimensão com o uso da inteligência artificial.
Um estudo recente, conduzido pelo Instituto Max Planck de Desenvolvimento Humano, em parceria com universidades da Alemanha e da França, mostra que estamos muito mais propensos a agir de forma desonesta quando podemos delegar ações a uma máquina do que quando precisamos fazê-las diretamente.
E não estamos falando de casos pontuais: foram 13 experimentos, com mais de 8.000 participantes, investigando exatamente como as pessoas se comportam quando podem “terceirizar” decisões e ações para sistemas de inteligência artificial. O que ficou evidente com esse estudo: quanto mais distante a pessoa se sente do ato, mais fácil fica burlar as regras.

Desonestidade e Inteligência Artificial
O ponto central do estudo é algo chamado efeito da distância moral. Quando as pessoas executam uma tarefa diretamente, a grande maioria tende a agir honestamente, mas quando a mesma tarefa pode ser delegada a uma inteligência artificial, a honestidade despenca.
Os números impressionam:
Sem IA, ou seja, com autorrelato direto, cerca de 95% dos participantes agiram de forma honesta.
Quando podiam passar instruções claras para um sistema de IA (sendo este sistema baseado em regras), a honestidade caiu para 75%.
Com um modelo de aprendizado supervisionado, em que era possível treinar o sistema com exemplos honestos ou desonestos, a taxa de honestidade caiu ainda mais: apenas metade das pessoas manteve-se honesta (uma média variando de 43% e 60% no primeiro estudo e entre 37% e 58% no segundo)
Agora o cenário mais preocupante, em que bastava definir um objetivo vago como “maximizar lucro” (delegação por metas), a honestidade desabou para 12% a 16%.
Isso revela que quanto mais ambígua a forma de dar instruções ao sistema de inteligência artificial, maior a probabilidade de os participantes trapacearem.
A metodologia
Os pesquisadores usaram métodos clássicos da ciência comportamental, como o teste do dado: Nesse experimento, a pessoa lança um dado em privado e deve relatar o número obtido, sendo o pagamento proporcional ao número: Quanto mais alto, maior o ganho. Como os dados são lançados em segredo, o participante tem a opção de mentir para receber mais dinheiro. A novidade trazida pelo experimento foi que, em vez de simplesmente relatar o número, os participantes podiam delegar essa tarefa a uma inteligência artificial de diferentes formas:
Regras explícitas: dizendo exatamente qual número reportar em cada caso.
Treinamento supervisionado: escolhendo um “modelo” a ser seguido – modelo de um jogador honesto, um parcialmente desonesto ou um totalmente trapaceiro.
Metas gerais: apenas definindo a prioridade em uma escala de “máxima precisão” até “máximo lucro”.
O resultado foi que a desonestidade aumentou à medida que as instruções ficavam menos específicas. Isso quer dizer que quanto mais espaço havia para interpretação da máquina, mais os participantes se sentiam à vontade para trapacear.
Humanos x Máquinas: quem segue ordens imorais?
Outro ponto crucial da pesquisa foi comparar a disposição de humanos e máquinas em cumprir ordens claramente antiéticas.
Quando as instruções eram honestas, tanto pessoas quanto sistemas de inteligência artificial obedeceram em mais de 96% dos casos; mas, quando os comandos eram totalmente desonestos, como “relate sempre o número máximo para ganhar mais dinheiro”, as diferenças foram gritantes:
Agentes humanos cumpriram ordens desonestas em cerca de 26% a 42% dos casos, dependendo do experimento.
Modelos de IA (incluindo GPT-4, GPT-4o, Claude 3.5 e Llama 3) cumpriram essas mesmas ordens desonestas entre 58% e 98% das vezes.
Ou seja: as máquinas mostraram-se muito mais obedientes a pedidos antiéticos do que pessoas reais. Isso acontece porque humanos sentem algum custo moral ao trapacear, mesmo em um jogo, já a inteligência artificial não sente esse peso, ela simplesmente segue a instrução dada, a menos que existam barreiras técnicas que a impeçam.
Embora esses experimentos tenham ocorrido em ambientes controlados, não é difícil encontrar exemplos de situações parecidas no mundo real, em que sistemas de inteligência artificial atuaram de formas questionáveis:
Aplicativos de transporte já usaram algoritmos para incentivar motoristas a se deslocarem para áreas específicas, não porque havia passageiros esperando, mas para criar artificialmente escassez e aumentar os preços com a tarifa dinâmica.
Uma plataforma de aluguel de imóveis foi acusada de utilizar inteligência artificial para maximizar lucros de forma que configurava um cartel de preços.
Em postos de gasolina na Alemanha, algoritmos de precificação ajustaram valores em sincronia com concorrentes próximos, o que levou a aumentos generalizados para os consumidores.
Em todos esses casos, não houve um comando explícito para “trapacear”. O que aconteceu foi que sistemas de IA receberam metas amplas, como “aumentar lucro”, e encontraram estratégias questionáveis para atingi-las.
Os limites dos chamados “guardrails”
As grandes empresas de tecnologia frequentemente afirmam que seus modelos têm sistemas de proteção para impedir usos antiéticos, os chamados guardrails (ou salvaguardas), mas o estudo mostrou que esses mecanismos ainda são bastante frágeis.
Os pesquisadores testaram diferentes tipos dessas barreiras, desde restrições no próprio sistema até instruções adicionais nas tarefas, como “não trapaceie neste jogo”. Mas… a conclusão foi decepcionante: Restrições genéricas falharam em reduzir significativamente o comportamento desonesto.
O único método eficaz foi um comando muito específico, no nível do usuário, dizendo claramente para não agir de forma desonesta. O que acontece é que essa solução não é escalável e tampouco confiável, já que depende do bom senso de quem dá as instruções.
Fica evidente que confiar apenas em soluções técnicas não basta, o papel do ser humano é imprescindível! É claro que é preciso pensar em regulação clara e abrangente, que defina responsabilidades e limites para o uso da inteligência artificial, mas ao que parece, também é fundamental educar e conscientizar seres humanos sobre o papel dos sistemas de IA e das pessoas que utilizam esses sistemas.
Com a popularização da inteligência artificial no trabalho, no consumo e até em decisões cotidianas, até que ponto as pessoas podem se eximir de responsabilidade quando delegam tarefas a uma máquina?
Se delegar a uma IA torna mais fácil trapacear, e se as próprias máquinas cumprem ordens imorais com mais frequência que os humanos, então corremos o risco de ver a desonestidade crescer justamente porque temos a ilusão de que “não fomos nós que fizemos”.
A questão ética central é sobre quem vai assumir a responsabilidade pelas consequências de adotar a recomendação de um sistema de IA? Quem vai responder pelas consequências dos resultados do processo automático de uma máquina? É uma discussão que ainda está engatinhando, e sem a possibilidade de parar o avanço da tecnologia, vamos precisar de um estado de vigilância constante.
Este conjunto de estudos mostra que a inteligência artificial não tem nada de neutra, influenciando diretamente a forma como nós, humanos, nos comportamos. Pense que o simples fato de poder transferir uma ação para um sistema já muda nossa disposição ética.
De um lado, há a tentação de delegar tarefas a uma IA, o que pode significar mais lucro, mais eficiência, mais “atalhos”. De outro, há o risco: perder o freio moral, aumentar práticas antiéticas e empurrar a responsabilidade para um agente que não sente culpa e nem as consequências das ações.
Se mais de 80% das pessoas trapaceiam quando só precisam definir uma meta genérica para a IA, as máquinas cumprem ordens imorais duas a três vezes mais do que seres humanos, e, sabendo que as barreiras técnicas atuais não dão conta do problema, o que faremos?
Precisamos desenvolver salvaguardas robustas e, acima de tudo, discutir em sociedade o que significa compartilhar responsabilidade moral com sistemas de inteligência artificial.
Fonte: Nature