Tech

Microsoft e OpenAI alertam sobre hackers do Estado-nação que armam IA para ataques cibernéticos

Hackers armando IA para ataques cibernéticos

Os actores estatais associados à Rússia, à Coreia do Setentrião, ao Irão e à China estão a testar perceptibilidade sintético (IA) e grandes modelos de linguagem (LLMs) para complementar as suas operações de ataque cibernético em curso.

As descobertas vêm de um relatório publicado pela Microsoft em colaboração com a OpenAI, ambos afirmando que interromperam os esforços feitos por cinco atores afiliados ao Estado que usaram seus serviços de IA para realizar atividades cibernéticas maliciosas, encerrando seus ativos e contas.

“O suporte ao linguagem é uma particularidade procedente dos LLMs e é interessante para atores de ameaças com foco contínuo em engenharia social e outras técnicas que dependem de comunicações falsas e enganosas, adaptadas aos empregos, redes profissionais e outros relacionamentos de seus alvos”, disse a Microsoft em um relatório compartilhado com The Hacker News.

Embora nenhum ataque significativo ou novo empregando os LLMs tenha sido detectado até o momento, a exploração adversária de tecnologias de IA transcendeu várias fases da calabouço de ataque, porquê reconhecimento, assistência de codificação e desenvolvimento de malware.

“Esses atores geralmente procuravam usar os serviços OpenAI para consultar informações de código lhano, transcrever, encontrar erros de codificação e executar tarefas básicas de codificação”, disse a empresa de IA.

Por exemplo, diz-se que o grupo estatal russo divulgado porquê Forest Blizzard (também divulgado porquê APT28) usou as suas ofertas para conduzir pesquisas de código lhano sobre protocolos de notícia por satélite e tecnologia de imagem de radar, muito porquê para suporte em tarefas de script.

Algumas das outras equipes de hackers notáveis ​​​​estão listadas inferior –

  • Emerald Sleet (também divulgado porquê Kimusky), um ator de ameaças norte-coreano, usou LLMs para identificar especialistas, grupos de reflexão e organizações focadas em questões de resguardo na região Ásia-Pacífico, compreender falhas disponíveis publicamente, ajudar com tarefas básicas de script e redigir teor que poderiam ser usados ​​em campanhas de phishing.
  • Crimson Sandstorm (também divulgado porquê Imperial Kitten), um ator de ameaças iraniano que usou LLMs para fabricar trechos de código relacionados ao desenvolvimento de aplicativos e web, gerar e-mails de phishing e pesquisar maneiras comuns pelas quais o malware poderia evadir da detecção
  • Charcoal Typhoon (também divulgado porquê Aquatic Panda), um ator de ameaças chinês que usou LLMs para pesquisar várias empresas e vulnerabilidades, gerar scripts, fabricar teor provável para uso em campanhas de phishing e identificar técnicas para comportamento pós-comprometimento
  • Salmon Typhoon (também divulgado porquê Maverick Panda), um ator de ameaças chinês que usou LLMs para transcrever documentos técnicos, restaurar informações publicamente disponíveis sobre várias agências de perceptibilidade e atores de ameaças regionais, resolver erros de codificação e encontrar táticas de ocultação para evitar a detecção

A Microsoft disse que também está formulando um conjunto de princípios para mitigar os riscos representados pelo uso malicioso de ferramentas de IA e APIs por ameaças persistentes avançadas (APTs), manipuladores persistentes avançados (APMs) e sindicatos de cibercriminosos e conceber proteções e segurança eficazes. mecanismos em torno de seus modelos.

“Esses princípios incluem identificação e ação contra notificação de uso de atores mal-intencionados de ameaças a outros provedores de serviços de IA, colaboração com outras partes interessadas e transparência”, disse Redmond.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button