Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Detecção de deepfakes com técnicas da astronomia: precisão e desafios

Deepfakes são uma preocupação crescente dos nossos tempos com a popularização da inteligência artificial. Considerado por muitos um ônus da ascensão da IA, a tecnica do deepfake se é tão impressionante quanto alarmante. Essas imagens e vídeos gerados por algoritmos de IA podem parecer incrivelmente reais, colocando como um desafio distinguir o falso do verdadeiro. Em um esforço inovador, pesquisadores estão agora utilizando técnicas da astronomia para identificar essas falsificações digitais, analisando como a luz se reflete nos olhos das pessoas nas imagens.

A ideia de aplicar métodos da astronomia para a detecção de deepfakes pode parecer inusitada, mas faz todo sentido quando entendemos o princípio subjacente. Há muito tempo, astrônomos usam essas técnicas para estudar a luz de estrelas e galáxias distantes. Ao medir como a luz se distribui e se reflete, eles podem obter informações detalhadas sobre objetos que estão a milhões de anos-luz de distância. Agora, esses mesmos métodos estão sendo aplicados mais perto de casa, nos pixels das imagens digitais.

Kevin Pimbblet, diretor do Centro de Excelência em Ciência de Dados, Inteligência Artificial e Modelagem da Universidade de Hull, no Reino Unido, apresentou recentemente essa pesquisa inovadora na Reunião Nacional de Astronomia da Sociedade Astronômica Real do Reino Unido. Ele explica que, embora a técnica não seja infalível, ela representa um avanço significativo na luta contra a disseminação de imagens falsas.

Para entender como essas técnicas da astronomia são aplicadas aos deepfakes, precisamos primeiro entender um pouco sobre a física da luz e a natureza das imagens digitais. Em uma fotografia autêntica, a física das reflexões de luz deve ser consistente, o que significa que as reflexões de luz que vemos no olho esquerdo de uma pessoa devem ser muito semelhantes às que vemos no olho direito, mesmo que não sejam idênticas.

Adejumoke Owolabi, uma cientista de dados também da Universidade de Hull, conduziu uma análise detalhada dessas reflexões em seu trabalho de mestrado. Ela utilizou duas principais medições da astronomia: o sistema CAS e o índice Gini. O sistema CAS quantifica a concentração, assimetria e suavidade da distribuição da luz em um objeto. Já o índice Gini mede a desigualdade na distribuição da luz, algo originalmente usado para estudar galáxias.

Para o estudo, Owolabi utilizou imagens reais do conjunto de dados Flickr-Faces-HQ, um conjunto de dados de alta qualidade de imagens de rostos humanos, criado pela NVIDIA para pesquisa em visão computacional e aprendizado de máquina. A partir desses dados foram gerados rostos falsos usando um gerador de imagens, e ao comparar as reflexões de luz nos olhos das imagens, ela conseguiu prever corretamente se uma imagem era falsa em cerca de 70% das vezes. A pesquisa demonstrou que o índice Gini foi mais eficaz do que o sistema CAS na detecção de manipulações.

Apesar do sucesso inicial, Kevin Pimbblet adverte que essa não é uma solução perfeita. A técnica pode produzir falsos positivos e negativos, ou seja, pode tanto identificar incorretamente uma imagem real como falsa quanto deixar de identificar uma imagem falsa. No entanto, ele ressalta que essa pesquisa fornece uma nova ferramenta potencial que pode ser adicionada ao arsenal de métodos de detecção de deepfakes.

Reprodução: Nature – Os olhos em imagens deepfake (esquerda) têm padrões inconsistentes de reflexão (direita). Crédito: Adejumoke Owolabi (CC BY 4.0)

Detectar melhor deepfakes pode ser um problema?

Brant Robertson, astrofísico da Universidade da Califórnia em Santa Cruz, elogia a inovação, mas alerta para um possível efeito colateral: métricas utilizadas para detectar deepfakes podem ser usadas para treinar modelos de IA a criar falsificações ainda mais convincentes. Essa é uma corrida armamentista tecnológica, onde cada novo método de detecção pode ser eventualmente superado por novas técnicas de criação de deepfakes.

Zhiwu Huang, pesquisador de IA na Universidade de Southampton, no Reino Unido, oferece uma perspectiva interessante. Ele observa que, embora seu próprio trabalho não tenha identificado padrões inconsistentes de luz nos olhos em imagens de deepfake, a técnica de Pimbblet pode ser útil na análise de anomalias sutis em iluminação, sombras e reflexões em diferentes partes de uma imagem. Assim, detectar inconsistências nas propriedades físicas da luz pode complementar os métodos existentes e melhorar a precisão geral da detecção de deepfakes.

A importância dessa pesquisa vai além da pura curiosidade científica. Em um mundo onde deepfakes podem ser usados para espalhar desinformação, especialmente durante eventos críticos como eleições, a capacidade de detectar imagens falsas é vital. Deepfakes têm o potencial de causar danos significativos à reputação das pessoas, manipular a opinião pública e até mesmo ameaçar a segurança nacional.

Ao combinar conhecimento de astronomia e ciência de dados, os pesquisadores abriram um novo caminho para combater a falsificação digital, ao mesmo tempo que colocam problemas que não podem ser negligenciados quanto a evolução e precisão das técnicas de detecção para treinamento das máquinas para melhorar ainda mais os deepfakes 

Fonte: Nature

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias