Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Inteligência artificial na ciência: Estudo da Nature revela as perspectivas dos pesquisadores

Qual a influência da inteligência artificial na ciência? A revista Nature decidiu entender o que os pesquisadores pensam sobre o assunto, entrevistando mais de 1.600 cientistas ao redor do mundo e os resultados nos dão uma ideia interessante sobre como o mundo acadêmico está lidando com essa tecnologia.

Neste artigo vamos trazer as principais conclusões e insights das percepções desses especialistas!

A influência da inteligência artificial no campo científico é indiscutível e é claro que essa tecnologia está se tornando um instrumento cada vez mais comum nos centros de pesquisa. 

Já existe até “ChatGPT acadêmico”! Clica aqui e veja esta e outras ferramentas para otimizar a rotina dos pesquisadores.

Perspectivas gerais sobre a inteligência artificial na ciência

Atualmente, mais da metade dos cientistas acredita que, em uma década, a inteligência artificial será “muito importante” ou “essencial” para suas áreas, o que pode ser detectado por um aumento nas menções a termos de inteligência artificial em artigos científicos em todas as áreas na última década.

Ao explorar a forma como essa tecnologia inteligente vem sendo aplicada na ciência, alguns insights da pesquisa se destacam. Primeiramente, o aprendizado de máquina já se consolidou como uma técnica bem estabelecida e estamos vivenciando uma rápida expansão no campo da IA Generativa, com destaque para os LLMs, que são capazes de gerar textos, imagens e códigos com precisão. 

Cientistas também estão recorrendo a esses modelos não apenas para redigir artigos, mas também para inovações como a criação de novas estruturas de proteínas e aprimoramento de previsões meteorológicas, entre outras aplicações fascinantes.

Os benefícios da IA na ciência

Os cientistas já reconhecem várias vantagens como mostram os dados da pesquisa:

  • Dois terços dos pesquisadores apontam para um processamento de dados mais rápido com a IA.
  • 58% afirmam que a IA permite cálculos anteriormente inviáveis.
  • 55% acreditam que economiza tempo e recursos.

Desafios e preocupações

Jeffrey Chuang, que estuda análise de imagens do cancro no Laboratório Jackson em Farmington, Connecticut, destaca que a inteligência artificial está desafiando os padrões de prova e verdade dos cientistas. Portanto, apesar das inúmeras vantagens, também existem preocupações válidas:

  • 69% acreditam que a IA pode causar uma dependência excessiva no reconhecimento de padrões, esquecendo o entendimento verdadeiro.
  • 58% temem que a IA possa perpetuar vieses.
  • 55% veem potencial para fraudes.
  • 53% estão preocupados com pesquisas irreproduzíveis devido ao uso inadequado da IA.

Visões sobre o futuro

Os pesquisadores têm grandes expectativas sobre a influência da IA na próxima década.

Entre os que os que já usaram:

  • Mais de ¼ acredita que ela será essencial em seu campo, em comparação com 4% que consideravam as ferramentas essenciais agora,
  • e outros 47% a veem como ‘muito útil’.

Entre os que não usaram:

  • 9% acreditam que ela será “essencial”, e
  • 34% a consideram ‘muito útil’.

Os modelos LLM (Large Language Models)

O LLM, modelo que se popularizou pelo mundo com o ChatGPT, apresenta várias controvérsias no seu uso.

  • 68% dos pesquisadores estão preocupados com a disseminação de informações falsas por esses modelos.
  • Outros 68% acham que eles podem facilitar o plágio.
  • E 66% acreditam que podem introduzir erros nos artigos de pesquisa.

Mas não são apenas estatísticas frias que nos dizem isso. Os pesquisadores têm visto evidências concretas de possíveis problemas. Por exemplo, um estudo nos EUA mostrou que quando pediram ao LLM GPT-4 para sugerir diagnósticos e tratamentos para uma série de estudos de caso clínicos, as respostas variaram dependendo da raça ou gênero dos pacientes, isso reflete a tão discutida questão dos vieses que refletem o treinamento que foi aplicado no modelo.

Isabella Degen, engenheira de software e ex-empresária que agora está estudando para um doutorado no uso de IA em medicina na Universidade de Bristol, Reino Unido sugere que existe uma clara má utilização dos modelos de linguagem de grande escala (os LLM), nos quais os resultados soam profissionais, mas são deficientes em criatividade. Ela destaca que ainda não temos total clareza sobre onde exatamente está a linha entre o bom e o mau uso dessas ferramentas.

Não podemos esquecer das contribuições valiosas desses modelos, principalmente para os pesquisadores cuja primeira língua não é o inglês, atuando como ferramentas incríveis para melhorar a gramática e o estilo de seus trabalhos científicos ou até para traduzir e resumir outros trabalhos.

Kedar Hippalgaonkar, cientista de materiais da Universidade Nacional de Cingapura, reforça que apesar de algumas más intenções, a comunidade acadêmica tem o poder de demonstrar como usar essas ferramentas para o bem.

E para mostrar o quão popular é o uso desses modelos entre os pesquisadores, vamos aos números:

  • Apenas 28% daqueles que estudaram IA disseram que usam produtos de IA generativa como LLMs todos os dias ou mais de uma vez por semana.
  • 13% daqueles que só usam mas não estudam IA disseram que usam todos os dias ou mais de uma vez por semana.
  • E apenas 1% dos que nem estudam, nem a usam predominantemente em suas pesquisas, afirmaram usar produtos de IA generativa, diariamente ou mais de uma vez por semana.

O mais curioso é que o uso mais popular entre todos os grupos foi para diversão criativa não relacionada à pesquisa, e tem gente usando o ChatGPT até para sugerir receitas! 

E enquanto alguns estão realmente entusiasmados com o potencial dos LLMs, outros têm uma reação mais crítica, e um pesquisador comentou que parece que o ChatGPT replicou todos os maus hábitos de escrita dos humanos, usando muitas palavras para dizer muito pouco.

E é interessante observar comentários como o do físico Johannes Niskanen, físico da Universidade de Turku, na Finlândia, que nos faz refletir sobre o futuro da ciência: “Se usarmos IA para ler e escrever artigos, a ciência logo passará de ‘para humanos por humanos’ para ‘para máquinas por máquinas‘”.

Desafios da jornada da inteligência artificial no mundo acadêmico

Os problemas existem e não podem ser ignorados. Um caso preocupante de uma publicação em uma revista especializada. Clica aqui para ver o tamanho do vacilo! Essa deu até vergonha, hein! 

A despeito dos que estão abraçando a IA, muitos cientistas sentem que há barreiras que os impedem de explorar totalmente o potencial dessa tecnologia, e cerca de 50% dos cientistas relataram ter barreiras para o desenvolvimento ou uso da IA

Para os que já são pesquisadores de IA, os desafios são:

  •  Falta de recursos computacionais.
  •  Carência de financiamento.
  •  Ausência de dados de alta qualidade.

Para os pesquisadores de outras áreas que utilizam IA, o cenário muda um pouco:

  •  Escassez de cientistas especializados.
  •  Falta de recursos de treinamento.
  •  Preocupações com segurança e privacidade.

Importante mencionar a grande influência das empresas no universo da inteligência artificial.

Essas grandes corporações dominam os recursos de computação e detêm a propriedade das ferramentas.

Entre os cientistas que estudam IA:

  • 23% colaboram ou trabalham em empresas que desenvolvem essas ferramentas, sendo Google e Microsoft as mais citadas.
  • Apenas 7% dos que usam a IA colaboram com essas empresas.
  • Mais da metade dos participantes acredita ser crucial essa colaboração entre pesquisadores e empresas.

Os modelos LLM têm um potencial gigantesco, principalmente em áreas como bioinformática e química. Mas, como Garrett Morris, químico da Universidade de Oxford, no Reino Unido, apontou, os modelos precisam ser extremamente grandes, e poucas entidades no mundo têm capacidade para treiná-los, levando em conta o grande número necessário de GPUs (unidades de processamento gráfico), capacidade para operá-los e todos os demais altos custos estruturais envolvidos.

Outro grande alerta está relacionado ao uso ingênuo e inadvertido das ferramentas de IA. Alguns pontos levantados foram:

  • A IA pode levar a erros, falsos positivos e resultados irreproduzíveis.
  • Existe uma preocupação real sobre pesquisas de baixa qualidade que usam IA.

Lior Shamir, cientista da computação da Kansas State University, em Manhattan, destaca que a IA pode causar mais danos do que benefícios, especialmente quando usada sem a devida compreensão.

Os sentimentos são mistos quando se trata de revisar artigos que utilizam IA. Há uma clara divisão entre os pesquisadores sobre se os revisores e editores estão realmente preparados para avaliar adequadamente esse tipo de pesquisa.

O impacto na sociedade também é ponto-chave!

As possíveis repercussões da IA na sociedade são uma preocupação real. Os cientistas estão particularmente preocupados com:

  • O potencial da IA para disseminar informações falsas.
  • O uso em armas automatizadas e vigilância assistida por IA.

Curiosamente, a ameaça existencial apresentada pela IA foi o impacto menos preocupante, embora ainda seja uma preocupação para cerca de 20% dos entrevistados.

Conclusão

A inteligência artificial e os LLMs estão aqui para ficar, e devido ao seu potencial transformador o foco deve ser garantir que essa tecnologia traga mais benefícios do que problemas.

Universidades como a de Yale levantam pontos muito importantes que fazem pensar até mesmo para além da tecnologia! E o Russell Group do Reino Unido foi pioneira em pensar na implementação da IA de uma forma muito coerente.

Considerando o mundo acadêmico, o avanço pode ser significativo e acelerado se houver preparo para lidar com as questões éticas, de direitos autorais e honestidade intelectual demandada para implementar essa tecnologia inteligente. 

Justamente por tanto potencial, proporcional aos risco, é que é indispensável que a mobilização para entender e estabelecer parâmetros de uso, em um movimento sinérgico entre cientistas, órgãos públicos e privados, o mercado, as instituições acadêmicas e a sociedade civil, em nível mundial, para que a IA cumpra seu papel devido, que é ser uma ferramenta para o ser humano, que deve ter um pensamento crítico e responsável no seu uso. 

Fonte: Nature

Futuro Relativo

Futuro Relativo

Um espaço de divulgação, de diálogo, de pensar e porque não dizer, de construir o futuro 🪐
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Categorias