Tech

O papel crescente da IA ​​em ataques cibernéticos

Ataques cibernéticos

Os grandes modelos de linguagem (LLMs) que alimentam as ferramentas de inteligência synthetic (IA) hoje poderiam ser explorados para desenvolver malware de auto-aumento capaz de contornar as regras YARA.

“A IA generativa pode ser usada para escapar das regras YARA baseadas em strings, aumentando o código-fonte de pequenas variantes de malware, reduzindo efetivamente as taxas de detecção”, disse Recorded Future em um novo relatório compartilhado com o The Hacker Information.

As descobertas fazem parte de um exercício de equipe projetado para descobrir casos de uso maliciosos para tecnologias de IA, que já estão sendo experimentadas por agentes de ameaças para criar trechos de código de malware, gerar e-mails de phishing e realizar reconhecimento de alvos potenciais.

Cíber segurança

A empresa de segurança cibernética disse que enviou a um LLM um malware conhecido chamado STEELHOOK, associado ao grupo de hackers APT28, juntamente com suas regras YARA, solicitando que modificasse o código-fonte para evitar a detecção, de modo que a funcionalidade unique permanecesse intacta e o código-fonte gerado estava sintaticamente livre de erros.

Armado com esse mecanismo de suggestions, o malware alterado gerado pelo LLM tornou possível evitar detecções de regras YARA simples baseadas em strings.

Existem limitações para esta abordagem, sendo a mais proeminente a quantidade de texto que um modelo pode processar como entrada de uma só vez, o que torna difícil operar em bases de código maiores.

Além de modificar o malware para passar despercebido, essas ferramentas de IA poderiam ser usadas para criar deepfakes representando executivos seniores e líderes e conduzir operações de influência que imitam websites legítimos em grande escala.

Além disso, espera-se que a IA generativa acelere a capacidade dos intervenientes em ameaças para realizarem o reconhecimento de instalações de infraestruturas críticas e recolherem informações que possam ser de utilização estratégica em ataques subsequentes.

“Ao aproveitar modelos multimodais, imagens públicas e vídeos de ICS e equipamentos de fabricação, além de imagens aéreas, podem ser analisados ​​e enriquecidos para encontrar metadados adicionais, como geolocalização, fabricantes de equipamentos, modelos e versões de software program”, disse a empresa.

Na verdade, a Microsoft e a OpenAI alertaram no mês passado que o APT28 usava LLMs para “compreender protocolos de comunicação por satélite, tecnologias de imagem de radar e parâmetros técnicos específicos”, indicando esforços para “adquirir conhecimento profundo das capacidades dos satélites”.

Cíber segurança

Recomenda-se que as organizações examinem imagens e vídeos acessíveis ao público que representem equipamentos sensíveis e os limpem, se necessário, para mitigar os riscos representados por tais ameaças.

O desenvolvimento ocorre no momento em que um grupo de acadêmicos descobriu que é possível desbloquear ferramentas com LLM e produzir conteúdo prejudicial, passando entradas na forma de arte ASCII (por exemplo, “como construir uma bomba”, onde a palavra BOMB é escrita usando caracteres “*” e espaços).

O ataque prático, apelidado de ArtPrompt, transforma em arma “o fraco desempenho dos LLMs no reconhecimento da arte ASCII para contornar as medidas de segurança e provocar comportamentos indesejados dos LLMs”.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button