Os resultados da IA generativa têm gerado impactos significativos em todos os campos. De codificação à análise de ameaças, a IA está reformulando rapidamente o cenário tecnológico e tendo grande influência da cibersegurança, construindo verdadeiro um paradoxo: A mesma tecnologia que traz a possibilidade de deixar sistemas mais seguros, apresenta um potencial significativo de abrir portas para vulnerabilidades.
A IA generativa, com seus intrigantes modelos LLM (Large Language Models) que inclui sistemas como ChatGPT, não é apenas uma ferramenta sofisticada. Seu potencial para elevar o setor de cibersegurança é inegável. Imagine uma ferramenta que pode elaborar código, monitorar ameaças cibernéticas em tempo real ou até mesmo apoiar equipes de segurança com falta de pessoal.
Inclusive a Meta lançou uma ferramenta que não só escreve, mas também explica códigos, o Code Llama.
A perspectiva da IA assumindo as tarefas tediosas, frequentemente monótonas e repetitivas, apresenta um futuro promissor, permitindo aos humanos se concentrar em tarefas intrincadas que requerem discernimento, criatividade e tomadas de decisão importantes.
Embora seja exagero dizer que a inteligência artificial generativa pode criar código completamente sozinha, ela tem se mostrado inestimável na refinagem de ideias. Se você fornecer à IA um esboço básico ou um conceito, ela pode produzir um “primeiro rascunho” do código, simplificando o processo para os desenvolvedores. Como se diz, editar é sempre mais fácil do que criar do zero. Além disso, essa tecnologia oferece a possibilidade de análise de ameaças em tempo real.
Se você quiser se ir um pouco mais a fundo no assunto e entender melhor sobre os LLMs, clica aqui!
O lado negativo da IA Generativa
Enquanto reconhecemos o grande potencial da inteligência artificial generativa, é crucial reconhecer suas facetas mais obscuras. A mesma função que faz da IA uma ferramenta incrível, é o que a torna atraente para cibercriminosos. É como dar às duas equipes do jogo, os mocinhos e os bandidos, as mesmas ferramentas avançadas e depois esperar para ver quem leva a melhor.
A IA generativa e os LLMs geram conteúdo com base em dados preexistentes, o que os torna aptos a replicar informações anteriores. Essa capacidade permite que pessoas mal intencionadas driblem os sistemas de segurança tradicionais programados para detectar determinadas ameaças. Isso acontece ao replicar os códigos com nuances sutis que evitam detecção, gerando novos códigos que são similares mas únicos.
Um exemplo alarmante desta capacidade está na criação de variantes de webshell. Esse código permite que eles continuem acessando e controlando computadores que eles invadiram. É como se eles tivessem uma chave mestra que muda de forma. Mesmo se mudarmos a fechadura, eles podem ajustar sua chave para entrar novamente. Além disso, eles usam um truque (chamado RCE) que permite a eles dar comandos ao computador de longe. Com essa combinação, fica difícil perceber que eles ainda estão lá.
Existem vulnerabilidades chamadas “zero-day“, que se referem a falhas em softwares ou sistemas que são desconhecidas pelos desenvolvedores e fabricantes do produto. O termo “zero-day” indica que, uma vez que a vulnerabilidade é descoberta, os desenvolvedores têm “zero dias” para corrigi-la antes que possa ser explorada por invasores.
Em outras palavras, quando uma vulnerabilidade zero-day é revelada, isso significa que os atacantes podem já estar cientes e explorando-a antes que os desenvolvedores tenham a oportunidade de criar e distribuir uma correção. Isso torna essas vulnerabilidades particularmente perigosas e valiosas tanto para invasores quanto para empresas de segurança.
Invasores experientes precisavam de muito tempo e habilidade para identificar e explorar essas vulnerabilidades zero-day, mas com LLMs e ferramentas de inteligência artificial generativa, até indivíduos menos habilidosos poderiam encontrar e explorar tais vulnerabilidades.
Embora seja fácil culpar apenas os atacantes, a responsabilidade também recai sobre as organizações. Muitas já têm vulnerabilidades espreitando em sua codificação. À medida que o código gerado por IA se torna mais comum, sem verificações rigorosas, podemos ver um aumento nas vulnerabilidades devido a saídas de codificação imperfeitas da inteligência artificial. É como abrir um baú do tesouro para atacantes experientes, especialmente atores de Estados-nação, que estão sempre à procura de pontos fracos.
Diante desses desafios, qual é o caminho a seguir? A solução não é descartar a tecnologia, mas usá-la com sabedoria. Para virar o jogo contra os atacantes, as organizações podem utilizar proativamente ferramentas de inteligência artificial para procurar vulnerabilidades, buscando identificar e corrigir as potenciais ameaças antes de serem exploradas.
Também é essencial que as organizações exerçam cautela ao usar IA e LLMs para geração de código. Se uma ferramenta está referenciando um código-fonte aberto de um repositório existente, é crucial garantir que ela não esteja trazendo junto vulnerabilidades de segurança.
As preocupações são tangíveis e validadas por mestres da tecnologia defendendo uma “pausa na IA” para reavaliar suas implicações na sociedade. Embora as ferramentas de inteligência artificial generativa e LLM sejam formidáveis, é essencial que as utilizemos com sabedoria, protegendo-nos contra potenciais armadilhas antes de dar total liberdade à IA.
Embora alguns defendam uma pausa no desenvolvimento dessa tecnologia, parece que não há sinais de desaceleração, portanto a convergência de inteligência artificial generativa e cibersegurança que é repleta de complexidade vai demandar discernimento, vigilância e um compromisso contínuo com a segurança.
Fonte: Venture Beat