O termo “open source” ou código aberto é atribuído a modelos de linguagem de inteligência artificial que disponibilizam seu código-fonte, dados de treinamento e documentação para que qualquer pessoa possa acessar, modificar e distribuir, promovendo transparência, colaboração e inovação na comunidade científica e tecnológica.
Quando se fala nessa tecnologia cada vez mais presente, a discussão sobre o modelo ser ou não de código aberto, ou open source, vêm à tona, trazendo a crescente preocupação sobre a transparência de modelos de linguagem que alimentam chatbots e assistentes virtuais. Mas o que realmente significa ser open source ou de código aberto quando as grandes empresas utilizam?
O conceito de open source originou-se no mundo do software, onde implica acesso ao código-fonte sem restrições quanto ao uso ou distribuição. No entanto, para os modelos de IA, esse conceito se torna mais complexo. Devido ao enorme volume de dados e à complexidade desses modelos, oferecer total transparência não é uma tarefa simples. Especialistas ainda estão trabalhando para definir de maneira clara o que constitui um modelo de IA open source.
A transparência completa é vista por muitos como benéfica para o avanço científico e para a responsabilidade na IA, já que modelos totalmente abertos permitem que outros pesquisadores reproduzam estudos, garantindo a validade dos resultados. Além disso, a abertura é crucial para a inovação, permitindo que outros desenvolvedores ajustem e melhorem os modelos existentes.
Por outro lado, as empresas hesitam em revelar todos os detalhes de seus modelos devido aos riscos comerciais e legais. A divulgação completa pode expor vulnerabilidades ou facilitar o uso indevido dos modelos, algo que muitas empresas preferem evitar.
A prática do Open-Washing
Embora algumas empresas estejam genuinamente comprometidas com a abertura de seus modelos, aderindo o open source, outras estão sendo acusadas de “open-washing“.
Esse termo descreve a prática de rotular modelos como open source, enquanto na realidade divulgam o mínimo possível de informações. Segundo Mark Dingemanse, cientista da linguagem na Universidade Radboud, na Holanda, grandes empresas como Meta e Microsoft se beneficiam dessa prática, colhendo os frutos de relações públicas positivas sem o comprometimento completo com a transparência.
Estudo aponta conclusões sobre open source, ou código aberto, dos modelos
Em um estudo recente, Dingemanse e seu colega Andreas Liesenfeld, linguista computacional, avaliaram 40 grandes modelos de linguagem quanto ao grau de abertura. Eles analisaram 14 parâmetros, incluindo a disponibilidade do código e dos dados de treinamento, a documentação publicada e a facilidade de acesso aos modelos. As descobertas foram publicadas nos anais da Conferência ACM de 2024 sobre Justiça, Responsabilidade e Transparência.
O estudo revelou que muitos modelos que se dizem abertos ou open source são, na verdade, “open weight“, o que significa que pesquisadores externos podem usar os modelos treinados, mas não podem inspecioná-los ou personalizá-los. Além disso, não há transparência sobre como esses modelos foram ajustados para tarefas específicas, como, por exemplo, através do feedback humano.
Uma das maiores preocupações destacadas pelo estudo é a falta de transparência sobre os dados de treinamento. Cerca de metade dos modelos analisados não fornece detalhes além de descritores genéricos dos conjuntos de dados utilizados. Sem essa informação, é impossível saber se os dados utilizados são apropriados ou se incluem materiais com direitos autorais.
Respostas das empresas sobre serem open source
Frente às críticas, algumas empresas têm se defendido. Um porta-voz da Google afirmou que a empresa é precisa na linguagem que usa para descrever seus modelos, optando por rotular seu modelo Gemma como aberto, mas não open source. Já a Microsoft diz que tenta ser o mais precisa possível sobre o que está disponível ao público, destacando a importância da comunidade de desenvolvedores e pesquisadores no avanço da tecnologia de IA. Meta não respondeu aos pedidos de comentário.
Curiosamente, o estudo de Dingemanse e Liesenfeld mostrou que modelos desenvolvidos por empresas menores e grupos de pesquisa tendem a ser mais abertos que os de grandes empresas de tecnologia. Um exemplo notável é o BLOOM, desenvolvido por uma colaboração internacional predominantemente acadêmica, que é um exemplo de IA verdadeiramente open source.
Outro ponto crítico levantado pelo estudo é a escassez de artigos científicos revisados por pares detalhando esses modelos. Em vez disso, as empresas frequentemente publicam posts em blogs com exemplos selecionados a dedo ou preprints corporativos que carecem de detalhes substanciais. Dingemanse destaca que, sem especificações claras sobre os dados usados, é difícil avaliar a validade dos modelos.
O impacto da lei de IA da União Europeia
A Lei de IA da União Europeia, que entrou em vigor recentemente, trará implicações significativas para a definição de open source. Sob essa legislação, modelos de propósito geral classificados como open source serão isentos de requisitos extensivos de transparência, estando sujeitos a obrigações menos rigorosas e ainda indefinidas. Essa definição se tornará um ponto focal de pressão por parte de lobistas corporativos.
Será que a regulação de IA pela União Europeia vai servir de modelo para o mundo todo? Clique aqui para ler o artigo completo!
Para Dingemanse, a abertura é essencial para a ciência porque garante a reprodutibilidade dos resultados. Sem a possibilidade de reproduzir experimentos, é difícil considerar uma pesquisa como científica. Além disso, modelos abertos são fundamentais para a inovação, permitindo que pesquisadores construam suas próprias versões a partir de modelos existentes. A transparência também é crucial para a responsabilidade: sem saber como os modelos são desenvolvidos, não é possível avaliar a qualidade e a ética de seus resultados.
A questão da IA open source é complexa, e embora a transparência completa traga benefícios significativos para a ciência e a inovação, as empresas enfrentam desafios comerciais e legais que dificultam essa abertura.
O estudo de Dingemanse e Liesenfeld oferece uma visão crítica sobre o estado atual dos modelos de IA e destaca a importância de uma definição clara e rigorosa de open source, especialmente com a implementação da Lei de IA da União Europeia.
Fonte: Nature