Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Nova ferramenta protege fotos de manipulações por Inteligência Artificial

Atualmente, Nada impede que alguém utilize suas fotos e as adultere com Inteligência Artificial. E é praticamente impossível provar que a imagem modificada seja falsa

Imagine ter uma foto sua em uma situação constrangedora, em lugares que você nunca esteve, e isso podendo ser usado para te chantagear, por exemplo… (Deu medo de postar aquela selfie agora, né?)

Mas calma! Talvez isso mude com uma novidade bem legal do MIT (Massachusetts Institute of Technology, um dos maiores centros de pesquisa do mundo). 

A evolução da inteligência artificial generativa trouxe muitos problemas, tão urgentes que mobilizou gigantes da indústria como OpenAI, Google e Microsoft, entre outras, em um esforço voluntário para buscar um desenvolvimento responsável e seguro da IA. Depois de uma reunião na Casa Branca, essas empresas se juntaram para buscar soluções visando mitigar os riscos decorrentes dessa tecnologia. Esse é um movimento extremamente importante, e você pode conferir mais detalhes clicando aqui.

Nesse encontro na Casa Branca, foram mencionadas possíveis soluções que pudessem dar a possibilidade de identificar imagens geradas por inteligência artificial, como uma marca d’água e/ou um método que fosse possível diferenciá-las das fotos verdadeiras. E a solução que a galera do MIT trouxe pode ser uma boa opção para colaborar com essa intenção. 

Eles criaram o PhotoGuard, que promete proteção contra manipulações de imagem. A ferramenta surge como uma técnica adicional à marca d’água, com a finalidade de barrar o uso de ferramentas de IA na manipulação inicial das imagens.

Essa nova ferramenta é super relevante, pois o problema da manipulação de imagem pela inteligência artificial está se tornando cada vez mais sério. A tecnologia avançou tanto que agora é mais fácil do que nunca criar imagens falsas convincentes. E por isso a nova ferramenta do MIT é tão importante.

Como funciona a proteção das fotos contra Inteligência Artificial

O PhotoGuard funciona basicamente como um escudo invisível para as suas fotos. Ele adiciona alterações super sutis que passam despercebidas pelo olho humano, mas conseguem barrar qualquer tentativa de manipulação pela inteligência artificial.

Se alguém tentar usar um programa de edição baseado em IA, como o Stable Diffusion, para mexer em uma foto protegida pelo PhotoGuard, não vai rolar muito bem. O resultado vai ser uma imagem completamente bizarra e distorcida.

A ferramenta utiliza duas técnicas bem interessantes para manter suas fotos seguras. A primeira é chamada de ataque de codificador, que faz com que a inteligência artificial interprete a imagem de maneira completamente errada, como se uma pessoa fosse um bloco cinza. A segunda técnica, chamada ataque de difusão, bagunça a maneira como a inteligência artificial gera as imagens, adicionando sinais secretos que alteram seu processamento. Assim, se alguém tentar editar uma imagem protegida, ela ficará cinza.

Reprodução: MIT Technoly Review

Ainda há limitações… 

Os pesquisadores ainda têm um desafio: Observar como essa técnica se aplica a outros modelos existentes, além do Stable Diffusion. A equipe de pesquisadores disponibilizou uma demonstração online para você testar com suas próprias imagens. Mas por enquanto, essa funcionalidade opera de forma confiável só no Stable Diffusion mesmo.

Também temos que lembrar que estamos numa verdadeira corrida tecnológica. As empresas de IA estão sempre desenvolvendo novos modelos, por isso formas de proteção demandam constante aprimoramento.

Mais um problema é que essa ferramenta não protege completamente contra deepfakes, porque por mais que os usuários passem a usar esse protetor de imagens, as fotos antigas que estão online, sem essa proteção, podem servir de insumo para criação das imagens falsas.

O cenário ideal seria as próprias ferramentas de IA Generativa disponibilizarem algum tipo de proteção já na fonte, logo no carregamento da imagem, em vez de tentarmos usar outros métodos que não sejam tão confiáveis para a proteção contra adulteração, aponta Henry Ajder, especialista em IA generativa e deepfakes.

Os riscos ainda são muitos, e esses movimentos para tentar mitigá-los são bem importantes. Embora ainda não suficientes, já começam a mostrar sinais de uma perspectiva otimista para o uso responsável da inteligência artificial.
Fonte: MIT Technology Review

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias