Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Como evitar que deepfakes e outras falsificações por IA prejudiquem a sociedade e a ciência 

Deepfakes e os conteúdos falsos como um todo não são tão novidade assim no mundo da IA, e os problemas estão pipocando o tempo todo: potencial para revirar eleições, impactar mercados, manchar reputações…

Lembra do caso do Donald Trump? Esse foi mais um dos casos de deepfake, o ex-presidente dos EUA aparecia dando um beijinho no rosto de Anthony Fauci. Hany Farid, cientista da computação da Universidade da Califórnia, Berkeley, fez parte da equipe que analisou a imagem e detectou as falhas como detalhes borrados, textos sem sentido ao fundo, posicionamentos estranhos. Farid diz que detectar a falsidade da imagem foi fácil, por esses detalhes óbvios que, pelo menos por enquanto, são características dessas deepfakes.

Esse tipo de tecnologia está mais presente e acessível do que imaginamos, embora muitos não tenham se dado conta disso. O “boom” dessa tecnologia acabou pegando todo mundo de surpresa, – como apontam cientistas da computação de IA como Cynthia Rudin, da Duke University em Durham, Carolina do Norte.

Hoje, com apenas alguns cliques, quase qualquer pessoa pode criar vídeos e imagens falsos para os mais variados fins. Já rolou até videochamada em tempo real com personagens famosos falsos. O Jerome Powell, presidente da Reserva Federal dos EUA, teve uma conversa por vídeo achando que estava falando com o presidente ucraniano Volodymyr Zelenskyy, mas era só mais um caso de deepfake.

Algumas estimativas acadêmicas sugerem que dentro de alguns anos quase 90% do conteúdo da internet poderá ser sintético. Atualmente temos essas práticas explodindo, e é difícil estimar quanto de conteúdo gerado por inteligência artificial já está online. Vai ficar cada vez mais difícil encontrar conteúdo original e podemos facilmente estar, cada vez mais, imersos em um mar de fake news.

Apesar de muitas deepfakes serem criadas para entreter, como aquela imagem viral do Papa Francisco usando uma jaqueta estilosa, algumas têm objetivos bem mais sombrios. Há casos de manipulação de mercado, pornografia não consensual e até evidências reais sendo descartadas como falsas.

A capacidade das pessoas de confiar no que veem está desmoronando, e isso é um problemão para a democracia. Com grandes eleições chegando em países como os EUA, Rússia e Reino Unido, a situação só tende a se complicar.

Na área da ciência os problemas também existem, e as deepfakes podem ser uma ferramenta tentadora para pesquisadores mal-intencionados.

Para combater isso, pesquisadores estão engajados tentando descobrir maneiras de identificar e combater esse tipo de conteúdo. Algumas estratégias incluem marcar conteúdos como reais ou falsos na hora em que são gerados, e também usar ferramentas para detectar fakes após a publicação. A ideia é tornar a deepfake e qualquer tipo de falsificação uma tarefa bem mais trabalhosa.

No curto prazo, a tecnologia será a principal aliada, mas, no futuro, a educação e a regulamentação desempenharão papéis fundamentais. A União Europeia está saindo na frente com o AI Act, e o mundo todo está assistindo o desenrolar das medidas adotadas, esperando para ver se acertam ou não. O momento é de aprendizado em nível global. 

Ética e IA Generativa

A IA Generativa traz um infindáveis possibilidades e aplicações promissoras. Por exemplo, ela é utilizada para gerar conjuntos de dados médicos que não possuem preocupações de privacidade, além de contribuir na concepção de moléculas medicinais, e a inteligência artificial também tem a capacidade de aprimorar manuscritos científicos e softwares.

Um ponto interessante é que as deepfakes estão sendo estudadas para uso em terapias de grupo baseadas em vídeo, onde é essencial anonimizar os participantes. Outras aplicações incluem criar avatares personalizados de médicos ou professores que são mais atraentes para os espectadores ou até mesmo permitir melhores condições de controle em estudos de ciências sociais. Shyam Sundar, psicólogo e fundador do Laboratório de Pesquisa de Efeitos de Mídia da Universidade Estadual da Pensilvânia, é otimista e vê a tecnologia como algo verdadeiramente transformador.

Mas o fantasma do uso indevido é real, e por isso, pesquisadores e especialistas em ética estão tentando estabelecer regras claras para a inteligência artificial. Temos a Declaração de Montreal de 2018 e a Recomendação sobre Inteligência Artificial de 2019 da Organização para a Cooperação e Desenvolvimento Econômico. Há também a Partnership on AI, que reúne os grandes nomes da indústria, visando discutir melhores práticas para a inteligência artificial. Contudo, o impacto real ainda disso tudo ainda é motivo de debate.

A transparência tem sido um tema constante nesta jornada. A pressão para revelar quando um conteúdo é gerado por inteligência artificial tem crescido. 

O TikTok, por exemplo, tornou obrigatório para seus criadores divulgar o uso de inteligência artificial em cenas realistas. Grandes empresas tech, como Meta, Microsoft e Google, estão se comprometendo a marcar seu conteúdo gerado por IA, e isso ganhou ainda mais alcance desde o encontro de gigantes da tecnologia na Casa Branca, em julho, para buscar meios deepfakes e qualquer conteúdo falso tem sido acelerada. Recentemente, a Google até decidiu que qualquer conteúdo gerado por IA usado em anúncios políticos precisa ser declarado em suas plataformas.

Uma técnica que está ganhando destaque é a marca d’água em imagens sintéticas. A ideia é alterar sutilmente os pixels para identificar que uma imagem é um produto da IA. No entanto, nem todas as marcas d’água são criadas iguais. As básicas podem ser facilmente removidas, enquanto as mais avançadas, que usam várias camadas de padrões, são mais resistentes. A Google até lançou uma marca d’água para imagens sintéticas chamada SynthID, embora ainda existam dúvidas sobre sua eficácia.

Clica aqui para ver 6 perguntas respondidas sobre a eficácia do recurso de marca d’água.

A complementar a ideia da marca d’água, há também uma forte tendência para etiquetar os metadados dos arquivos com informações seguras de proveniência. Por exemplo, quando uma foto é tirada, sistemas garantem a autenticidade dos dados de GPS, carimbos de data e hora e validando que a imagem é original. Agências de notícias como a Reuters estão usando essa tecnologia para validar fotos de conflitos como a guerra na Ucrânia.

Por fim, vale destacar a Coligação para Proveniência e Autenticidade de Conteúdo (C2PA), que reuniu grupos-chave da indústria tecnológica e editorial. Em 2022, eles lançaram uma primeira versão de especificações técnicas sobre como os sistemas devem rastrear informações de proveniência. Há várias ferramentas que seguem as diretrizes da C2PA disponíveis no mercado, e muitas empresas, como a Microsoft, estão comprometidas em seguir estas orientações. Especialistas, como Anderson Rocha, pesquisador de IA aqui da UNICAMP, acredita que a C2PA terá um papel vital no futuro próximo.

Clique aqui e saiba mais sobre a criptografia do C2PA para regulação da inteligência artificial.

Em busca de métodos para detectar conteúdos fake 

O sistema de rastrear a proveniência das imagens promete ser uma ferramenta chave nesse combate. Farid, que também é integrante do comitê de direção da C2PA, acredita que essa é a solução para cortar boa parte dos arquivos suspeitos. No entanto, isso depende muito de empresas e indivíduos de boa fé adotarem sistemas como o C2PA. Mesmo com as melhores intenções, algo sempre escapa, o que torna os detectores uma ferramenta essencial.

Há vários classificadores baseados em IA, desenvolvidos tanto pela academia quanto por empresas, propondo identificar padrões que diferenciam mídias criadas por IA das reais. Embora muitos afirmem ter uma taxa de sucesso acima de 90%, Farid aponta que esses sistemas podem ser facilmente driblados. Alguém mal-intencionado pode, por exemplo, ajustar uma imagem para confundir o detector.

Clica aqui para conhecer uma ferramenta desenvolvida pelo MIT para proteger contra manipulação pela inteligência artificial.

E é aí que entra o fator humano. Ferramentas de IA podem ser combinadas com técnicas que utilizam percepções humanas para diferenciar o verdadeiro do falso. Farid, por exemplo, procura por pistas como linhas de perspectiva que desafiam as leis da física para identificar um deepfake. Outras dicas são mais sutis, como o posicionamento exato dos olhos em rostos gerados por determinados softwares.

A batalha entre criadores de falsificações e seus detectores é acirrada. Farid mencionou um estudo sobre vídeos deepfake que mostravam pessoas que piscavam os dois olhos de forma dessincronizada. O problema foi corrigido pelos desenvolvedores de inteligência artificial em poucas semanas, e por casos como este, mesmo com a vasta produção em seu laboratório, Farid é cauteloso ao compartilhar seus códigos de detecção.

Vários serviços de detecção com interfaces públicas estão surgindo. Projetos acadêmicos, estão avançando, tais como o DeFake no Rochester Institute of Technology em Nova York e o DeepFake-o-meter da Universidade de Buffalo. A Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA – Defense Advanced Research Projects Agency) também lançou o Semantic Forensics (SemaFor) em 2021, com o objetivo é explorar todos os detalhes por trás de arquivos feito por IA Generativa. O SemaFor reúne quase 100 pesquisadores colaboraram para desenvolver mais de 150 análises, com a maior parte feita por algoritmos que podem ser usados em conjunto ou isolados.

Existem inúmeros geradores e detectores, e cada caso tem suas particularidades, e não podemos esquecer que a dificuldade de detecção de deep fakes e qualquer conteúdo falso é aumentada porque o cenário está em constante mudança. Rocha comenta que, para imagens, quando o gerador é conhecido, os detectores podem ter mais de 95% de precisão, mas quando se trata de geradores novos ou desconhecidos, essa precisão despenca.

O que se coloca, portanto, é que não apenas de detectar se algo é sintético, mas entender o propósito por trás da sua criação. Por essa razão, parte crucial do trabalho do SemaFor é determinar a intenção por trás das falsificações. Em paralelo, a DARPA também está desenvolvendo ferramentas para identificar campanhas massivas de desinformação, apoiadas ou não por deep fakes e falsificações de inteligência artificial.

Semafor e os desafios para detectar conteúdos fake

Atualmente, o projeto SemaFor está em sua reta final. O chefe do projeto, Wil Corvey, está buscando parceiros em potencial, especialmente entre as plataformas de redes sociais, e a equipe chegou a bater na porta de gigantes como o Google, mas, até agora, nenhum deles implementou seus algoritmos de maneira consistente.

A colaboração no combate às falsificações já está acontecendo, como é o caso da Meta, que fez uma parceria com a Universidade Estadual de Michigan com foco em detectores, mas o uso exato deles ainda é um mistério. Farid tem trabalhado com o LinkedIn, que está utilizando detectores de inteligência artificial para identificar rostos sintéticos associados a contas fraudulentas.

Wael Abd-Almageed, cientista da informação e engenheiro de computação da Universidade do Sul da Califórnia, em Los Angeles, é totalmente a favor de que as plataformas de redes sociais apliquem detectores em todas as imagens, sugerindo até que esses sites deveriam colocar um aviso em imagens que pareçam ser falsas. 

Mas a coisa não é tão simples. Uma empresa (que ele preferiu não nomear) recusou sua proposta de software gratuito porque não viu um retorno financeiro imediato. Farid, por sua vez, expressou preocupações sobre a utilização massiva de detectores automáticos. Segundo ele, mesmo uma ferramenta com 99% de precisão ainda teria uma margem de erro, o que poderia minar a confiança pública.

E aí entra o papel da legislação. Muitos acreditam que empresas, especialmente editoras e plataformas de mídia social, necessitam de leis que as orientem para comportamentos responsáveis

Recentemente, o Parlamento Europeu propôs uma lei que poderia regular aplicações de inteligência artificial de alto risco. Embora a União Europeia esteja avançando neste assunto, há opiniões divididas sobre a eficácia da lei e seu possível impacto na inovação. Nos EUA, a discussão também também está aquecida, com vários projetos de lei relacionados à inteligência artificial na mesa, embora as aprovações ainda não sejam certas.

Rocha ressalta a importância de aumentar o repertório de todos sobre essa evolução tecnológica, e diz que, ao informar o público, pode-se dar argumentos para agir e demandar educação adequada nas escolas.

Identificar deepfakes, fake news, e qualquer conteúdo gerado pela IA Generativa continuarão a ser um desafio, mesmo com todos os recursos tecnológicos e sociais ao nosso alcance, mas se tornarmos os argumentos e ferramentas cada vez mais populares, é mais provável avançar na identificação de conteúdos falsos.

A ideia é tornar as falsificações raras e difíceis, tal qual dinheiro falso. Só conseguiremos isso estreitando os diálogos, aumentando nosso repertório sobre tecnologia, ética, legislação e tudo que envolve a relação do ser humano com a inteligência artificial.

O risco das falsificações para ciência

O campo da ciência também tem sido sutilmente impactado, e a integridade das pesquisas está sendo desafiada pelos conteúdos fakes feitos por inteligência artificial.

Uma grande preocupação reside nas imagens biomédicas, como scans, imagens de microscopia e os conhecidos “western blots”. Wester blot é uma técnica laboratorial utilizada para detectar proteínas específicas em uma amostra, onde distintas bandas são formadas por proteínas de diferentes pesos moleculares. Embora já existam fraudes utilizando softwares como o Photoshop para manipular essas imagens, a criação completa por inteligência artificial pode ser ainda mais difícil de detectar.

Em um experimento, Rongshan Yu, da Universidade de Xiamen na China, treinou um programa de IA para criar imagens de western blot a partir de um conjunto de 3.000 imagens, e quando especialistas foram desafiados a identificar as falsas, dois entre os três convidados para o experimento tiveram um desempenho pior do que o acaso, e um sistema computacional obteve um resultado levemente superior.

O brasileiro Anderson Rocha, da Universidade de Campinas, ao analisar um conjunto massivo 14.000 imagens originais de western blot e 24.000 imagens sintéticas, feitas por quatro geradores diferentes, descobriu que os detectores de IA atingiram precisões superiores a 85%. E Rocha sugere que esse é apenas o começo para mostrar a viabilidade dos detectores, e ele também ja tem um artigo em revisão para extensão de seu método de detecção para além dos western blots.

O que preocupa é que, embora não existam evidências concretas de que a IA esteja sendo usada para melhorar artigos ou aplicações de financiamento, especialistas acreditam que isso seja provável. Wael Abd-Almageed não entrou em detalhes, mas menciona ter conhecimento de casos específicos em que acadêmicos usaram essa tecnologia para criar falsificações.

Bernd Pulverer, editor-chefe da revista EMBO Reports, sugere que a marca d’água, já explorada anteriormente para imagens médicas, possa ser uma solução para combater o conteúdo fake, mas ele também destaca que mais importante ainda é incentivar esforços para reproduzir dados em ciência, e tentar replicar resultados pode ser a forma definitiva de identificar fraudes.

Por tudo que foi dito, combater deepfakes, fakenews, e conteúdos falsos em diferentes ambientes, de redes sociais ao mundo acadêmico, é um desafio gigantesco, em função das mudanças constantes e intensas da tecnologia de inteligência artificial. Exatamente por isso precisamos nos mobilizar para nos aproximar do assunto, já que a cada dia estamos mais imersos em uma realidade onde falsificações e conteúdos originais estão tão intrincados.

Fonte: Nature

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias