A OpenAI, responsável pelo famoso ChatGPT, tem estado no centro de um turbilhão de mudanças e controvérsias que ressoam profundamente no mundo da Inteligência Artificial. Esses acontecimentos lançaram luz sobre um debate urgente e complexo: até que ponto as forças comerciais estão moldando, para o bem ou para o mal, o desenvolvimento responsável dos sistemas de IA?
A atenção de especialistas se volta sobre os acontecimentos da gigante da tecnologia com um olhar crítico sobre os desafios que enfrentamos.
Tudo começou com uma mudança abrupta na liderança da OpenAI. Em 17 de novembro, a empresa demitiu Sam Altman, seu carismático CEO e co-fundador, conhecido por sua liderança desde 2019 e por supervisionar um investimento significativo de 13 bilhões de dólares da Microsoft. A demissão gerou um caos interno, com centenas de funcionários ameaçando migrar para a Microsoft se Altman não fosse reinstalado. Cinco dias após sua saída, Altman foi reconduzido ao cargo, acompanhado de uma grande reformulação no conselho da empresa.
Essa reviravolta colocou em evidência as tensões entre o crescimento comercial acelerado e a manutenção dos princípios éticos na IA. Sarah Myers West, diretora-gerente do AI Now Institute, uma organização de pesquisa política com sede na cidade de Nova York, destaca a competição tóxica no campo da inteligência artificial como uma “corrida para o fundo”. Essa dinâmica não apenas pressiona as empresas a acelerarem o desenvolvimento de novas tecnologias, mas também levanta preocupações sobre a segurança e a responsabilidade desses avanços.
Altman, um investidor e empreendedor de sucesso, tornou-se a face pública da OpenAI, uma empresa que começou como uma organização sem fins lucrativos em 2015 e evoluiu para um modelo de lucro limitado em 2019. Esse modelo foi uma tentativa de equilibrar os interesses comerciais com o objetivo mais amplo de beneficiar toda a humanidade, mas a tensão entre esses dois objetivos ficou clara no episódio da demissão de Altman. O conselho que o demitiu inicialmente alegou falta de transparência em suas comunicações, mas negou que a decisão estivesse relacionada a malfeitos financeiros ou práticas de segurança.
Aqui entra a questão da cultura organizacional. Jathan Sadowski, cientista social de tecnologia da Universidade Monash em Melbourne, Austrália, sugere que o conflito interno na OpenAI reflete uma luta entre sua origem não lucrativa e a pressão do modelo de lucro limitado, o que pode sinalizar uma guinada da empresa em direção a uma estrutura mais típica das corporações tecnológicas do Vale do Silício, focadas em lucro.
Além de Altman, figuras proeminentes como Ilya Sutskever, cientista-chefe da OpenAI, tiveram papéis centrais nessa saga. Sutskever, que participou da decisão de demitir Altman e posteriormente expressou arrependimento, tem se dedicado a um projeto de ‘superalinhamento’, buscando garantir que futuras superinteligências operem em benefício da humanidade.
Mas o que isso significa para o avanço da IA?
O lançamento do ChatGPT pela OpenAI quase um ano atrás foi um marco, colocando a empresa em um patamar de fama mundial. O ChatGPT, baseado no modelo de linguagem GPT-3.5, mostrou capacidades surpreendentes, incluindo o que alguns veem como lampejos de raciocínio lógico, o que acelerou a corrida no desenvolvimento de modelos de linguagem grandes, com empresas como Google, Amazon e várias startups lançando produtos similares.
No entanto, essa corrida levanta preocupações significativas, uma vez que os os produtos de IA estão sendo lançados antes de se entender completamente seu comportamento, usos e possíveis abusos. Esse cenário, segundo West, pode ser “prejudicial para a sociedade”.
Uma das questões intrigantes é sobre a caixa-preta dos modelos inteligentes. Clica aqui para saber o que é isso.
Outra questão que está no radar é a dependência de recursos computacionais maciços, fornecidos por poucas gigantes da tecnologia como Google, Microsoft e Amazon, criando uma dinâmica de poder desigual, o que além de impulsionar a competição, pode centralizar o controle da IA na mão de poucos.
As preocupações com a segurança com essa tecnologia não são infundadas. Geoffrey Hinton, um cientista da computação da Universidade de Toronto, no Canadá, pioneiro no aprendizado profundo pioneiro do aprendizado profundo, alerta sobre os perigos da velocidade no desenvolvimento da IA, comparando sua rápida evolução a um carro de corrida sem freios, destacando os riscos inerentes a um progresso desenfreado.
Os planos da OpenaAI
Embora ainda seja uma meta ousada, com viabilidade ainda discutível, um dos objetivos mais ambiciosos da OpenAI é o desenvolvimento de uma inteligência artificial geral (AGI – Artificial General Intelligence) – um sistema de aprendizado profundo treinado não apenas para ser bom em uma coisa específica, mas para ter uma inteligência geral comparável à humana.
A longo prazo, os riscos são ainda mais alarmantes. Hinton e outros pesquisadores temem que um sistema de IA possa se tornar um agente negativo independente, guiando eventos mundiais em uma direção destrutiva. Por exemplo, um AGI projetado para promover os melhores interesses da humanidade poderia concluir que o peso do sofrimento humano é tão vasto que seria melhor para a humanidade não existir.
Essas são questões muito discutidas, conhecidas como “problema do alinhamento” que, grosso modo, são um problema de comunicação entre humano e máquina, onde a imprevisibilidade dos processos da IA pode preencher as lacunas não preenchidas por humanos, como no exemplo citado, por falta de especificações, detalhes nas solicitações, etc.
Para lidar com essas preocupações, a Cúpula de Segurança da IA realizada no Reino Unido em novembro buscou antecipar essas questões, com diversas nações concordando em trabalhar juntas no problema. No entanto, ainda não está claro exatamente o que será feito.
A Casa Branca também tem adotado iniciativas importantes para mitigar os perigos e superar os desafios dessa nova tecnologia. Clica aqui para ler mais sobre o assunto.
West enfatiza a importância de se concentrar nas ameaças já presentes da inteligência artificial antes de preocupações mais distantes e garantir que as leis existentes sejam aplicadas às empresas de tecnologia que desenvolvem sistemas de IA. Os eventos recentes na OpenAI destacam o poder concentrado nas mãos de poucas empresas com recursos financeiros e computacionais para alimentar esses sistemas, algo que ela acredita que precisa de mais atenção por parte dos órgãos reguladores.
Estamos em um momento em que a desaceleração dessa tecnologia parece se distanciar mais, e as perspectivas de especialistas sobre inúmeras questões devem ser consideradas e ponderadas. Tudo o que acontece com a OpenAI hoje reflete um pouco das tensões tensões e desafios que permeiam um campo onde inovação, ética e segurança se entrelaçam de maneiras complexas e muitas vezes conflitantes.
Fonte: Nature