Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Como controlar conteúdo fake? 6 perguntas respondidas sobre a eficácia das marcas d’água

Conteúdo fake feito por Inteligência Artificial causa problemas sérios! Como foi o caso do que aconteceu em maio, com uma imagem falsa que quase levou o mundo à loucura quando mostrou o que parecia ser uma bomba no Pentágono

Os avanços tecnológicos rápidos permitem que todo mundo possa compartilhar o que quiser pelos seus um smartphones. Há um risco constante de nos depararmos com conteúdo manipulado. Pense como fica difícil reconhecer uma imagem fake com a inteligência artificial permitindo gerar arte hiper-realista.

A imagem fake do Pentágono se espalhou pela internet muito rápido. Quando os confiáveis auxiliares da Casa Branca, jornalistas e as plataformas de tecnologia piscaram, a imagem já havia feito seu estrago que, além da confusão, afetou os mercados financeiros. Tudo isso, por causa de uma imagem gerada por IA.

Já vimos conteúdo manipulado antes, mas a inteligência artificial está levando o jogo para outro nível. E isso gera repercussões para além das questões relacionadas à arte, que já não são poucas, como as de direitos autorais, por exemplo. O grande problema é que conteúdo fake pode ser usado para influenciar opiniões e ameaçar alguém.

Já existem algumas iniciativas em pauta para identificação de imagem fake, como por exemplo a criptografia. Você pode até testar uma ferramenta desenvolvida pelo MIT para proteger suas fotos, clica aqui pra conferir

Uma pergunta possível é: E se essa foto do Pentágono tivesse algo como um selo “feito por IA”, será que as plataformas poderiam rapidamente categorizar a imagem fake, excluí-las ou, pelo menos, colocar um aviso? Talvez muito caos poderia ter sido evitado.

Pensando em soluções, a Casa Branca anunciou que as gigantes da tecnologia de inteligência artificial estão prontas para implementar uma marca d’água, tipo uma “tag” (visível ou às vezes invisível) em conteúdos gerados por IA. Acontece que isso não é a solução de todos os problemas.

A marca d’água é algo mais complexo do que parece. Há o tipo “visível para todos” (pense nas imagens com “Getty Images” estampado como fornecedor), e há a versão com sinais invisíveis que só os técnicos podem detectar. Então, ambos têm limitações consideráveis.

Existe um mundo de debates e discussões sobre esse recurso e a confusão é que tudo é chamado de marca d’água, inclusive assinaturas criptográficas, aquelas assinaturas digitais únicas que pode se beneficiar de um recurso chamado proveniência, que permite saber a origem da imagem,

As gigantes da tecnologia como OpenAI e Google já se comprometeram em buscar soluções para o uso adequado do conteúdo gerado por inteligência artificial. Você pode saber de todos os detalhes clicando aqui.

A marca d’água é eficaz no combate a conteúdos fakes? 6 perguntas respondidas!

É importante o questionamento sobre o quão eficiente pode ser o recurso de marca d’água. Para isso, o MIT Technology Review apresentou 6 questões importantes sobre o assunto.

  1. A marca d’água pode ser adulterada?

Embora as marcas d’água sejam consideradas ferramentas para rastrear a origem do conteúdo, ambos os tipos, visíveis e invisíveis, podem ser alterados ou removidos. A vulnerabilidade delas depende em grande parte do tipo específico de conteúdo, tornando complexo avaliar universalmente sua integridade.

  1. A durabilidade da marca d’água é consistente entre diferentes tipos de conteúdo?

Marcas d’água invisíveis, embora promovidas como soluções para a IA generativa, são muito mais facilmente manipuladas em conteúdo textual em comparação com formatos audiovisuais. Essa inconsistência na durabilidade é destacada pela postura divulgada pela Casa Branca em um documento que deixa claro que as empresas só se responsabilizam por essa aplicação em imagens, sugerindo a necessidade de políticas que atendam às necessidades específicas de cada tipo de conteúdo.

  1. É uma boa opção para combater o conteúdo fake?

À medida que a indústria de inteligência artificial se move em direção à adoção de marcas d’água invisíveis para combate ao conteúdo fake, aparece um pequeno detalhe: ela não detecta conteúdo falso ou enganoso. Se o público amplo puder detectar as marcas d’água, isso pode ser usado para o uso indevido deste recurso por pessoas mal-intencionadas.

Outro problema é que se, ao contrário, não for possível detecção pelo público amplo, a utilização pode ficar restrita ao conhecimento técnico. Implementar esses tipos de métodos de divulgação sem descobrir como eles são governados pode torná-los suspeitos e ineficazes. O desafio está em implementar um sistema que seja confiável e não auxilie inadvertidamente criadores de conteúdo enganosos.

  1. As marcas d’água preservam a privacidade?

Sistemas de marcas d’água, conforme analisados por grupos como o Witness, podem inadvertidamente comprometer a privacidade dos criadores de conteúdo. É fundamental que a indústria de IA garanta que as metodologias não exponham dados identificáveis que comprometam os criadores, especialmente em situações sensíveis onde o conteúdo pode ser usado contra eles.

  1. As divulgações visíveis ajudam o público a entender o papel da IA generativa?

Há um potencial para má interpretação por parte do público, como no caso do rótulo “mídia manipulada” no Twitter que foi mal compreendido. Pesquisas sobre como essas marcas d’água são percebidas, especialmente em vários contextos como eleições, são cruciais para determinar sua eficácia.

  1. A marca d’água visível em conteúdo gerado por IA pode diminuir a confiança em conteúdo “real”?

A rotulagem excessiva de conteúdo gerado por inteligência artificial representa o risco de incitar uma desconfiança geral nas informações online. Há um debate em andamento sobre até que ponto o conteúdo deve ser rotulado como gerado por IA, especialmente para usos aparentemente inconsequentes dessa tecnologia. Um consenso sobre métodos de divulgação é crucial, enfatizando não apenas a origem do conteúdo, mas, mais importante, a veracidade de suas afirmações.

Dito tudo isso, ainda assim, fica claro que os desafios com o recurso de marca d’água não devem ser nossa desculpa para pausar as iniciativas que buscam mitigar os riscos decorrentes de conteúdos fakes. Pelo contrário, é um chamado à ação. Precisamos que empresas de tecnologia, formuladores de políticas e basicamente todos os stakeholders estejam reunidos para pensar um caminho a seguir. 

Identificar a origem de um conteúdo não basta para dizer se é falso ou tendencioso o suficiente que pode ser usado para manipular ou ameaçar as pessoas. Além disso, é preciso buscar um recurso que combata conteúdo enganoso nos diversos outputs das IAs, que não se restringem ao formato de imagens. Lembrando que também é possível criar um conteúdo fake sem nenhuma inteligência artificial… Parece que a regulação do ambiente virtual precisa de um olhar muito mais cuidadoso do que se possa pensar.


Fonte: MIT Technology Review

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors