A inteligência artificial generativa tem oferecido avanços e possibilidades notáveis em diversas áreas, desde a criação de imagens e textos até a análise automatizada de grandes volumes de dados. No entanto, o uso dessas ferramentas levanta preocupações significativas no campo da pesquisa científica, principalmente em relação à produção de dados e imagens falsas que podem passar despercebidos por revisores e editores.
A facilidade com que a IA generativa consegue criar imagens e dados visualmente convincentes coloca em xeque os métodos tradicionais de revisão de imagens em artigos científicos. Ao longo da última década, a integridade científica enfrentou desafios contínuos com a existência de “paper mills” – empresas que produzem artigos científicos em massa para atender à demanda de pesquisadores e instituições. Essas empresas, além de produzir te2xtos, agora podem também utilizar IA para criar dados visuais e estatísticos que acompanhem suas publicações.
O problema vai além de imagens absurdas e óbvias, como um caso recente de uma imagem gerada com IA, retratando um rato com características anatômicas desproporcionais, publicada e rapidamente desmascarada. A realidade é que, com IA Generativa, é possível criar imagens “limpas” de alta resolução, como culturas de células e blots moleculares, que aparentam ser autênticas aos olhos dos revisores. Estas imagens não contêm as falhas típicas de manipulações manuais, como fundos idênticos ou borrões. Esse nível de perfeição artificial da IA Generativa dificulta ainda mais a identificação visual, tornando necessário o uso de ferramentas especializadas.
É aqui que entram softwares como Proofig e Imagetwin, desenvolvidos para detectar alterações de integridade em figuras científicas, que estão sendo aprimorados para identificar imagens criadas por IA.
Clique aqui e veja os questionamentos acerca da confiabilidade de usar IA para revisão científica!
Estas ferramentas utilizam algoritmos de inteligência artificial para diferenciar imagens reais de imagens falsas. Em testes recentes, Proofig conseguiu detectar imagens geradas por IA com 98% de precisão. No entanto, os resultados dessas ferramentas ainda precisam ser validados por especialistas humanos, dado que a IA de detecção, embora promissora, não oferece garantias absolutas.
Driblando a IA Generativa: Transparência e novas ferramentas
A transparência e a responsabilidade dos autores também estão sendo cada vez mais incentivadas por revistas científicas. Hoje, o uso de IA para gerar texto é aceitável em alguns contextos, desde que seja devidamente sinalizado pelos autores. Contudo, o uso da IA Generativa para criação de dados ou imagens ainda é amplamente considerado antiético, e muitas revistas rejeitam artigos que apresentam evidências de dados gerados artificialmente sem uma justificativa clara e ética.
Em menos de um minuto, é possível criar uma imagem de um tumor ou uma cultura de células que parece realista o suficiente para enganar revisores e leitores. Profissionais, especialista em detecção de fraudes científicas, demonstraram como essas ferramentas podem ser perigosamente eficazes ao gerar imagens científicas falsas com qualidade suficiente para serem incluídas em publicações.
A IA Generativa também é capaz de criar textos com expressões comuns em chatbots, que às vezes passam despercebidas e acabam sendo publicadas.
Para enfrentar este problema de forma mais eficaz, publicações científicas e grupos de pesquisa estão investindo em ferramentas avançadas de verificação de dados, que incluem desde softwares de detecção até práticas como a marcação de imagens de microscopia com marcas d’água invisíveis, permitindo a verificação de sua autenticidade.
Iniciativas de grupos como a International Association of Scientific, Technical and Medical (STM) Publishers também apontam para o desenvolvimento de normas mais rígidas e padronizadas. Estas normas podem incluir o uso obrigatório de marcas d’água para imagens capturadas em laboratório e a exigência de registros claros de todos os dados originais que acompanham uma pesquisa.
Fraude científica e a perspectiva de longo prazo: Confiança e evolução das ferramentas de detecção
Para muitos pesquisadores e profissionais de integridade científica, o desafio maior é agir antes que as ferramentas de IA se tornem tão comuns e avançadas que dificultem ainda mais a verificação da autenticidade dos dados.
Alguns especialistas temem que a resposta das editoras e dos órgãos científicos seja lenta, permitindo que uma nova geração de fraudes se estabeleça nos registros científicos. No entanto, a esperança dos especialistas é de que, mesmo que fraudes geradas pela IA consigam enganar as revisões atuais, elas sejam descobertas no futuro com o aperfeiçoamento das tecnologias de verificação.
Ferramentas como Proofig e Imagetwin são passos promissores, mas o progresso nesse campo deve ser contínuo para acompanhar a rápida evolução da IA Generativa.
A ciência está em uma corrida contra o tempo para preservar sua integridade em uma era onde a inteligência artificial desafia fronteiras éticas e práticas. Ainda que o risco de dados e imagens falsas seja grande, a vigilância da comunidade científica e o avanço das ferramentas de verificação mostram que há caminhos promissores para garantir que as gerações futuras possam confiar no que a ciência publica.
Fonte: Nature