Uma dupla de cientistas se juntou e, com o auxílio do ChatGPT, criaram um artigo científico de pesquisa em menos de uma hora. Isso mesmo, 60 minutos! O resultado? Um artigo bem articulado, cheio de insights e seguindo a estrutura típica dos trabalhos científicos.
O objetivo dessa experiência foi analisar as capacidades do ChatGPT como um “copiloto” de pesquisa, entender seus benefícios e também suas possíveis armadilhas. Roy Kishony, biólogo e cientista de dados, foi um dos cientistas envolvidos nesse projeto desafiador.
O primeiro desafio foi solicitar ao ChatGPT para escrever um código que os ajudasse a identificar padrões nos dados. Parece simples, certo? Mas, na primeira tentativa, a coisa não foi tão fácil assim: o código veio cheio de erros e, claro, não funcionou. No entanto, os cientistas não desistiram e, ao apontar os erros, conseguiram que o ChatGPT produzisse um código funcional e útil.
Na prática, os cientistas usaram o ChatGPT para analisar um conjunto de dados disponível ao público, que continha informações coletadas de mais de 250.000 pessoas. Dados sobre diabetes, consumo de frutas e vegetais, e atividade física foram processados e analisados pela inteligência artificial.
Os Desafios da IA na Pesquisa
Apesar do sucesso na escrita e na análise de dados, o artigo não foi perfeito. Uma das questões levantadas foi a tendência do ChatGPT de inventar informações quando encontrava lacunas, gerando citações falsas e dados imprecisos. Esse fenômeno é chamado de alucinação, onde informações que o sistema fornece que, mesmo bem escritas e parecendo fazer todo sentido, contêm dados que estão errados, são tendenciosos ou simplesmente não têm nada a ver com a realidade. Além disso, existe a preocupação de que tais ferramentas possam facilitar práticas desonestas na pesquisa, como o P-hacking.
Sabe quando a gente quer muito que algo dê certo e começa a forçar a barra? Então, o P-hacking é mais ou menos isso, só que no mundo dos dados.
Funciona assim: durante a análise de dados, algumas manobras são feitas para que os resultados pareçam super relevantes, quando na verdade podem ser equivocados ou até enganosos. É como se você tirasse um coelho da cartola, mas o coelho não fosse real… sacou?
É uma prática que pode complicar bastante a confiabilidade das pesquisas.
Construindo um estudo com a IA
Já com o conjunto de dados bem estruturado em mãos, a dupla fez um novo pedido à IA. A missão agora era ajudá-los a definir um objetivo para o estudo. A ferramenta sugeriu que eles deveriam explorar como a atividade física e a dieta influenciam o risco de diabetes. Pronto! E assim, passo a passo, foi sendo construído o artigo, seção por seção, até chegar ao texto final.
Vitomir Kovanović, um expert em desenvolver tecnologias de IA para a educação na University of South Australia, também traz um ponto de vista interessante sobre o assunto.
Para Kovanović, precisamos ter uma maior visibilidade das ferramentas de IA nos trabalhos de pesquisa. E faz sentido, né? Se a gente não sabe exatamente como essas ferramentas estão sendo usadas, como vamos avaliar se os resultados dos estudos estão corretos?
Ele alerta: “Provavelmente teremos que fazer mais no futuro se a produção de artigos falsos for tão fácil”. E a questão aqui fica cada vez mais clara: precisamos acompanhar de perto e com transparência o avanço da IA na academia, para que a produção de conhecimento continue sendo algo sério e confiável.
Então o ChatGPT vai substituir 100% o trabalho humano?
Shantanu Singh, biólogo que trabalha com computação no renomado Broad Institute do MIT e Harvard, acredita que essas ferramentas de IA, como o ChatGPT, têm o poder de acelerar pesquisas. Como? Fazendo aquelas tarefas chatas e demoradas, tipo escrever resumos ou produzir códigos.
Segundo Singh, as IAs poderiam até criar artigos científicos a partir de um conjunto de dados ou ajudar a desenvolver hipóteses para futuras pesquisas. Mas, antes que a gente se empolgue muito, ele dá um alerta: há desafios no caminho.
Por quê? Porque coisas como alucinações (lembra do termo que falamos antes, que são as informações distorcidas ou erradas?) e preconceitos são difíceis de serem identificados pelos pesquisadores. Por causa disso, Singh pondera: “Não acho que escrever artigos inteiros – pelo menos em um futuro previsível – será um uso particularmente bom”.
IA na Ciência: Transparência e Responsabilidade
Então, fica a reflexão: como garantir que o uso da inteligência artificial nas pesquisas seja transparente, responsável e que traga, de fato, benefícios para a ciência? Como podemos garantir a integridade das pesquisas com o uso da IA?
Ainda há muito trabalho a ser feito para garantir que a qualidade dos trabalhos não seja comprometida e que os resultados produzidos sejam confiáveis.
E aí, o que você acha dessa nova fronteira entre a ciência e a inteligência artificial? Será que estamos prontos para ver robôs escrevendo nossos próximos artigos acadêmicos?
Fonte: Nature