A regulamentação da inteligência artificial é assunto no mundo todo, diante da sua rápida evolução e suas aplicações cada vez mais avançadas. A União Europeia (UE) se posiciona na vanguarda de um movimento regulatório global com a iminente implementação da AI Act (Lei de IA, em tradução livre).
Trata-se de um marco regulatório que tem previsão de ser promulgado ainda este ano, prometendo estabelecer limites abrangentes para empresas cujas ferramentas de IA são utilizadas na Europa. Essa iniciativa reflete o compromisso da UE em moldar o desenvolvimento e uso da IA de forma ética e responsável, apontando também para mudanças no cenário global da tecnologia.
A Act AI da UE surge em um momento crucial de regulamentação, onde os avanços dessa tecnologia despertam tanto admiração quanto preocupações éticas e sociais. De possíveis riscos existenciais à humanidade a questões mais imediatas, como perda de empregos, discriminação e infração de direitos autorais, o espectro de consequências não intencionais é vasto.
Representando cerca de 450 milhões de cidadãos europeus, a UE adota uma postura proativa, propondo uma regulamentação que poderia redefinir a forma como a IA é desenvolvida e empregada globalmente.
Um rascunho vazado do texto da lei revelou mudanças significativas devido a negociações políticas internas e lobbying. Tais ajustes e omissões levantaram debates entre especialistas sobre possíveis lacunas na legislação. Por exemplo, a proibição do uso de software de reconhecimento emocional em locais de trabalho e escolas, e a vedação de sistemas que promovam perfis discriminatórios e racistas, refletem o esforço da UE em garantir uma base ética rigorosa para a criação de ferramentas de IA.
Catalina Goanta, professora associada de direito privado e tecnologia na Universidade de Utrecht, nos Países Baixos, destaca a Act AI como parte de uma série de legislações recentes da UE voltadas para questões tecnológicas. A abordagem para regulamentação que considera aplicação para todos os setores como uma solução única para diversas indústrias representa um desafio considerável, dado o ritmo acelerado de inovação no setor tecnológico. A busca por um equilíbrio robusto entre fomentar o crescimento e a inovação e implementar salvaguardas para proteger os indivíduos é um dos principais dilemas enfrentados pelos legisladores ao buscar uma regulamentação.
Dentro do texto evoluído da AI Act, uma isenção notável diz respeito aos modelos de IA de código aberto, que operam com maior transparência em comparação com os sistemas “caixa preta”. Apesar disso, especialistas alertam que tais ferramentas ainda são capazes de causar danos. A legislação também ajustou a definição de sistemas de IA abrangidos pela regulamentação, um ponto que Aleksandr Tiulkanov, ex-consultor em IA do Conselho da Europa, descreve como “potencialmente controverso“.
O coração da AI Act, como explica Michael Veale, professor associado de direito na University College London, é uma adaptação da regulamentação de produtos da União Europeia. Tal como as leis de proteção ao consumidor da UE que regulam a segurança de brinquedos ou alimentos, a AI Act classifica certos usos como sendo de alto risco, como é o caso de imagens médicas e reconhecimento facial em postos de controle de fronteira, obrigando esses sistemas inteligentes a cumprir requisitos especiais. Desenvolvedores precisarão demonstrar aos reguladores o uso de dados relevantes e de alta qualidade, além de ter sistemas preparados para gerenciar riscos.
Apesar dessas precauções, críticos apontam que a linguagem usada nessa regulamentação para definir “alto risco” pode ser interpretada de forma demasiadamente ampla, possivelmente desencorajando empresas de IA a entrar no mercado da UE, reprimindo, portanto, a inovação. Claudio Novelli, pesquisador de ética digital e direito na Universidade de Bolonha, na Itália, expressa preocupações sobre a metodologia usada para medir riscos, embora reconheça melhorias no texto atual em comparação ao original.
Além das utilizações de alto risco, provedores de IA de propósito geral, como ferramentas generativas que têm múltiplas aplicações, estarão sujeitos a obrigações adicionais, e serão demandados a provar regularmente que os resultados de seus modelos funcionam conforme o pretendido, sem amplificar vieses, também testando seus sistemas contra vulnerabilidades.
Quando a AI Act for adotada, começará uma contagem regressiva para a aplicação: práticas proibidas pela lei devem cessar dentro de seis meses, enquanto as obrigações para IA de propósito geral entrarão em vigor em um ano.
Desenvolvedores de ferramentas de alto risco terão 24 meses para aderir, enquanto usos especializados de alto risco, como dispositivos médicos que incluem IA, terão 36 meses.
Ainda não está claro como a lei será aplicada. A lei estabelece um Gabinete de IA da UE para apoiar os países membros, mas o papel exato desta entidade permanece indefinido. Veale prevê que os países membros possam delegar a fiscalização a entidades privadas, o que suscita preocupações sobre a eficácia e a proatividade na aplicação das normas.
A influência da UE na regulamentação global da IA
Essa iniciativa da União Europeia tem o potencial de influenciar padrões globais de regulamentação, pressionando empresas internacionais a adaptarem suas operações às regulamentações europeias. Tal como aconteceu com o Regulamento Geral sobre a Proteção de Dados, muitas empresas internacionais optaram por operar segundo os padrões da UE globalmente, em vez de manter versões múltiplas de suas ferramentas.
No Brasil, conhecida oficialmente como Lei Geral de Proteção de Dados Pessoais (LGPD), Lei nº 13.709, de 14 de agosto de 2018, foi inspirada no Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia. Ambas as legislações compartilham o objetivo de proteger os dados pessoais dos cidadãos e conferir mais controle aos indivíduos sobre seus dados pessoais dentro de seus respectivos territórios. No entanto, existem algumas diferenças e peculiaridades que refletem o contexto legal e social brasileiro.
Resta saber se a Lei de IA provocará um “efeito Bruxelas” (o efeito de mudanças globais em padrões e regulamentações da UE) levando empresas fora do território da UE a aumentar as proteções de interesse público em suas operações de forma mais ampla.
Enquanto reguladores nos Estados Unidos adotam uma abordagem de “esperar para ver”, a UE destaca-se pela disposição em restringir grandes tecnologias, equilibrando inovação com responsabilidade ética e social. A implementação e fiscalização da Lei de IA serão cruciais para determinar se essa regulamentação ela servirá como modelo regulatório global ou se encontrará obstáculos semelhantes aos enfrentados por outras legislações emblemáticas, como a Lei de Proteção de Dados.
Fonte: Scientific American