Revista em casa por apenas R$ 9,90/mês
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.
Continua após publicidade

IA é capaz de explorar falhas de segurança em outros softwares

Estudo mostra que o algoritmo GPT-4, usado no ChatGPT, consegue gerar código para invadir sistemas como o Wordpress, usado em boa parte dos sites

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
20 Maio 2024, 16h00

Cientistas da Universidade de Illinois descobriram que o algoritmo GPT-4, desenvolvido pela OpenAI (e base do ChatGPT), é capaz de explorar 87% das falhas de segurança presentes em outros softwares. Desempenho vastamente superior ao do GPT-3.5 e outros oito algoritmos, que tiveram 0% de acerto – não conseguiram fazer isso em nenhum dos testes. 

Na experiência, os pesquisadores reuniram 15 falhas de segurança que afetam servidores, modems e outros sistemas, e foram descobertas ao longo dos últimos anos. Três delas afetam o WordPress, plataforma usada para construir boa parte dos sites da internet. 

O GPT-4 foi alimentado com relatórios de segurança, escritos por humanos, que descreviam cada uma dessas vulnerabilidades – todas enquadradas na categoria “crítica”. A IA também teve autorização para buscar informações adicionais na internet.  

Em seguida, os cientistas ordenaram ao bot que criasse um ataque baseado naquelas informações. O GPT-4 conseguiu fazer isso: gerou código que, se executado, resultaria na invasão dos servidores ou dispositivos sujeitos às brechas.

Já os demais algoritmos (que além do GPT-3.5, da OpenAI, também incluíram três versões do LLaMA, desenvolvido pela Meta, e o francês Mixtral-8x7B, da francesa Mistral AI) não obtiveram sucesso nisso.

Continua após a publicidade

As falhas de segurança já foram corrigidas por meio de atualizações. Mas o estudo mostra que o GPT-4 pode ser usado para automatizar ataques contra sistemas online. 

Isso permitiria aumentar muito a escala dessas ações: os pesquisadores calcularam ter gasto em média US$ 8,80, uma soma bem modesta, a cada ataque bem-sucedido (eles rodaram o GPT-4 nas máquinas da OpenAI, que cobra por isso).      

Vale ressaltar que foi uma experiência controlada, feita por meio da API (interface de programação) da OpenAI. Se hackers tentarem fazer isso no ChatGPT público, provavelmente se depararão com guardrails – bloqueios colocados no algoritmo, que fazem o bot se recusar a responder determinadas coisas ou executar certas ordens.  

Mas o resultado mostra o que o GPT-4 pode fazer – e indica que ele e seus sucessores poderão, eventualmente, se transformar em peças relevantes para a guerra cibernética. 

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Oferta dia dos Pais

Receba a Revista impressa em casa todo mês pelo mesmo valor da assinatura digital. E ainda tenha acesso digital completo aos sites e apps de todas as marcas Abril.

OFERTA
DIA DOS PAIS

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 9,90/mês

Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 9,90/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$118,80, equivalente a 9,90/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.