Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Cientistas criam artigo do zero em menos de uma hora com ChatGPT, será que deu certo?

Uma dupla de cientistas se juntou e, com o auxílio do ChatGPT, criaram um artigo científico de pesquisa em menos de uma hora. Isso mesmo, 60 minutos! O resultado? Um artigo bem articulado, cheio de insights e seguindo a estrutura típica dos trabalhos científicos.

Créditos da imagem: Kauê Peinado para Futuro Relativo

O objetivo dessa experiência foi analisar as capacidades do ChatGPT como um “copiloto” de pesquisa, entender seus benefícios e também suas possíveis armadilhas. Roy Kishony, biólogo e cientista de dados, foi um dos cientistas envolvidos nesse projeto desafiador.

O primeiro desafio foi solicitar ao ChatGPT para escrever um código que os ajudasse a identificar padrões nos dados. Parece simples, certo? Mas, na primeira tentativa, a coisa não foi tão fácil assim: o código veio cheio de erros e, claro, não funcionou. No entanto, os cientistas não desistiram e, ao apontar os erros, conseguiram que o ChatGPT produzisse um código funcional e útil.

Na prática, os cientistas usaram o ChatGPT para analisar um conjunto de dados disponível ao público, que continha informações coletadas de mais de 250.000 pessoas. Dados sobre diabetes, consumo de frutas e vegetais, e atividade física foram processados e analisados pela inteligência artificial.

Os Desafios da IA na Pesquisa

Apesar do sucesso na escrita e na análise de dados, o artigo não foi perfeito. Uma das questões levantadas foi a tendência do ChatGPT de inventar informações quando encontrava lacunas, gerando citações falsas e dados imprecisos. Esse fenômeno é  chamado de alucinação, onde informações que o sistema fornece que, mesmo bem escritas e parecendo fazer todo sentido, contêm dados que estão errados, são tendenciosos ou simplesmente não têm nada a ver com a realidade. Além disso, existe a preocupação de que tais ferramentas possam facilitar práticas desonestas na pesquisa, como o P-hacking.

Sabe quando a gente quer muito que algo dê certo e começa a forçar a barra? Então, o P-hacking é mais ou menos isso, só que no mundo dos dados.

Funciona assim: durante a análise de dados, algumas manobras são feitas para que os resultados pareçam super relevantes, quando na verdade podem ser equivocados ou até enganosos. É como se você tirasse um coelho da cartola, mas o coelho não fosse real… sacou?

É uma prática que pode complicar bastante a confiabilidade das pesquisas.

Construindo um estudo com a IA

Já com o conjunto de dados bem estruturado em mãos, a dupla fez um novo pedido à IA. A missão agora era ajudá-los a definir um objetivo para o estudo. A ferramenta sugeriu que eles deveriam explorar como a atividade física e a dieta influenciam o risco de diabetes. Pronto! E assim, passo a passo, foi sendo construído o artigo, seção por seção, até chegar ao texto final.

Vitomir Kovanović, um expert em desenvolver tecnologias de IA para a educação na University of South Australia, também traz um ponto de vista interessante sobre o assunto.

Para Kovanović, precisamos ter uma maior visibilidade das ferramentas de IA nos trabalhos de pesquisa. E faz sentido, né? Se a gente não sabe exatamente como essas ferramentas estão sendo usadas, como vamos avaliar se os resultados dos estudos estão corretos?

Ele alerta: “Provavelmente teremos que fazer mais no futuro se a produção de artigos falsos for tão fácil”. E a questão aqui fica cada vez mais clara: precisamos acompanhar de perto e com transparência o avanço da IA na academia, para que a produção de conhecimento continue sendo algo sério e confiável.

Então o ChatGPT vai substituir 100% o trabalho humano?

Shantanu Singh, biólogo que trabalha com computação no renomado Broad Institute do MIT e Harvard, acredita que essas ferramentas de IA, como o ChatGPT, têm o poder de acelerar pesquisas. Como? Fazendo aquelas tarefas chatas e demoradas, tipo escrever resumos ou produzir códigos.

Segundo Singh, as IAs poderiam até criar artigos científicos a partir de um conjunto de dados ou ajudar a desenvolver hipóteses para futuras pesquisas. Mas, antes que a gente se empolgue muito, ele dá um alerta: há desafios no caminho.

Por quê? Porque coisas como alucinações (lembra do termo que falamos antes, que são as informações distorcidas ou erradas?) e preconceitos são difíceis de serem identificados pelos pesquisadores. Por causa disso, Singh pondera: “Não acho que escrever artigos inteiros – pelo menos em um futuro previsível – será um uso particularmente bom”.

IA na Ciência: Transparência e Responsabilidade

Então, fica a reflexão: como garantir que o uso da inteligência artificial nas pesquisas seja transparente, responsável e que traga, de fato, benefícios para a ciência? Como podemos garantir a integridade das pesquisas com o uso da IA?

Ainda há muito trabalho a ser feito para garantir que a qualidade dos trabalhos não seja comprometida e que os resultados produzidos sejam confiáveis.

E aí, o que você acha dessa nova fronteira entre a ciência e a inteligência artificial? Será que estamos prontos para ver robôs escrevendo nossos próximos artigos acadêmicos?

Fonte: Nature

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias