A Inteligência Artificial está causando uma verdadeira revolução, e os desafios decorrentes do seu uso estão em foco. Uma pesquisa do World Economic Forum de junho de 2023 apontou que o gerenciamento de risco não está avançando tão rápido quanto a IA.
Essa é a visão de 24 CROs (Chief Risk Officers) de grandes corporações como Nestlé, Accenture, McKinsey, PayPal, Emirates, entre outras multinacionais, abrangendo áreas como tecnologia, serviços financeiros, saúde, serviços profissionais e manufatura industrial. CROs são os responsáveis pelas previsões de grandes corporações e organizações internacionais.
Três de cada quatro deles apontaram que o uso de inteligência artificial pode abalar a reputação de suas organizações, e nove em dez deles vêem a necessidade urgente de mais esforço na regulação do desenvolvimento e uso de IA.
Quase metade deles acredita que deveríamos dar uma pausa ou, pelo menos, dar uma desacelerada no desenvolvimento de novas tecnologias de inteligência artificial, até que se possa entender melhor os riscos, sugerindo que essa tecnologia cria um ambiente complexo e incerto, especialmente quando falamos da IA Generativa.
Os desafios
Existe uma grande preocupação com o possível uso mal-intencionado da inteligência artificial, embora os muitos benefícios para áreas como a agricultura, saúde e educação sejam reconhecidos. Um dos motivos para a inquietação é que os sistemas de IA disponíveis são bem fáceis de usar, sugerindo que pessoas mal intencionadas podem se aproveitar disso para espalhar fake news, facilitar ataques cibernéticos ou usar indevidamente dados pessoais alheios.
Um dos principais medos mencionados pelos CROs está em como essa tecnologia funciona, que para eles é algo bem misterioso, já que ninguém sabe direito como o conteúdo é gerado, o que eleva os riscos. É o que chamamos de caixa-preta. Essa falta de clareza sobre o funcionamento dificulta a previsão de futuros riscos.
Foi unânime a perspectiva de que o avanço da inteligência artificial está indo mais rápido do que a capacidade de administrar os riscos éticos e sociais atrelados a essa nova realidade, e 43% disseram que a criação de novas tecnologias de IA deveria ser pausada ou desacelerada até seja possível entender melhor tudo que está acontecendo.
Regulação da Inteligência Artificial
Mais da metade dos CROs estão por dentro de como a inteligência artificial pode mexer com suas organizações e 90% afirmam que é necessário acelerar o passo para regulamentação.
Muitos deles estão planejando realizar uma espécie de “check-up” em suas empresas que já usam a tecnologia para conferir se está tudo seguro, dentro da lei e com aplicação de forma ética, embora alguns mencionem que nem todo mundo vê a inteligência artificial como um risco para o negócio.
Peter Giger, CRO no Grupo Zurich Insurance diz que não é uma boa alternativa ignorar os riscos, mas também acredita que as empresas precisam ampliar sua perspectiva para o longo prazo, argumentando que focar apenas nos riscos que provavelmente serão predominantes nos próximos seis meses pode desviar a atenção de lidar com os riscos maiores que irão definir o futuro.
Ginger aponta para a inteligência artificial como um bom exemplo desses grandes riscos futuros, sugerindo que essa tecnologia pode não mudar drasticamente nossas vidas imediatamente, mas que negligenciar isso no longo prazo é um grande erro.
Em junho, o WEF publicou recomendações para o desenvolvimento responsável da IA que estimulava os desenvolvedores a serem mais abertos e transparentes, e também a usarem uma terminologia mais amplamente compreensível.
Nessa publicação, também ficou destacada a necessidade de que a indústria de tecnologia deixasse mais claras as capacidades e limitações, visando construir confiança. Além de apontar para a maior consideração das preocupações da sociedade e o feedback do usuário.
Uma pesquisa recente da McKinsey também trouxe importantes perspectivas sobre o assunto, e apontou 5 estratégias para uma implementação responsável da inteligência artificial. Você pode ver aqui!
O desenvolvimento responsável já está no radar das Big Techs
Depois de uma reunião voluntária na Casa Branca, em um movimento inédito, quatro gigantes, OpenAI, Google, Microsoft e Anthropic, formaram o Fórum Modelo de Fronteira (Frontier Model Forum) para promover o desenvolvimento seguro e responsável de sistemas de IA de fronteira. E acreditem, isso é grande! E já existem metas para o próximo ano.
Clica aqui pra conferir os detalhes desse movimento muito importante para o desenvolvimento responsável da inteligência artificial.
Fonte: World Economic Forum