OpenAI bloqueia 20 campanhas globais maliciosas usando IA para crimes cibernéticos e desinformação

A OpenAI disse na quarta-feira que interrompeu mais de 20 operações e redes enganosas em todo o mundo que tentaram usar sua plataforma para fins maliciosos desde o início do ano.

Essa atividade envolveu a depuração de malware, a escrita de artigos para websites, a geração de biografias para contas de mídia social e a criação de imagens de perfil geradas por IA para contas falsas no X.

“Os atores de ameaças continuam a evoluir e a experimentar nossos modelos, mas não vimos evidências de que isso leve a avanços significativos em sua capacidade de criar malware substancialmente novo ou construir públicos virais”, disse a empresa de inteligência synthetic (IA).

Afirmou também que interrompeu atividades que geraram conteúdos nas redes sociais relacionados com eleições nos EUA, no Ruanda e, em menor medida, na Índia e na União Europeia, e que nenhuma destas redes atraiu envolvimento viral ou sustentou audiências.

Isto incluiu esforços empreendidos por uma empresa comercial israelita chamada STOIC (também apelidada de Zero Zeno) que gerou comentários nas redes sociais sobre as eleições indianas, conforme divulgado anteriormente pela Meta e pela OpenAI no início de Maio deste ano.

Cibersegurança

Algumas das operações cibernéticas destacadas pela OpenAI são as seguintes –

  • SweetSpecter, um suposto adversário baseado na China que aproveitou os serviços da OpenAI para reconhecimento informado por LLM, pesquisa de vulnerabilidades, suporte a scripts, evasão de detecção de anomalias e desenvolvimento. Também foi observada a realização de tentativas malsucedidas de spear phishing contra funcionários da OpenAI para entregar o RAT SugarGh0st.
  • Cyber ​​Av3ngers, um grupo afiliado ao Corpo da Guarda Revolucionária Islâmica Iraniana (IRGC) usou seus modelos para conduzir pesquisas em controladores lógicos programáveis.
  • Storm-0817, um ator de ameaças iraniano, usou seus modelos para depurar malware Android capaz de coletar informações confidenciais, ferramentas para raspar perfis do Instagram through Selenium e traduzir perfis do LinkedIn para persa.

Em outros lugares, a empresa disse que tomou medidas para bloquear vários clusters, incluindo uma operação de influência codinome A2Z e Cease Information, de contas que geravam conteúdo em inglês e francês para posterior publicação em vários websites e contas de mídia social em várias plataformas.

“(Cease Information) foi extraordinariamente prolífico no uso de imagens”, disseram os pesquisadores Ben Nimmo e Michael Flossman. “Muitos de seus artigos e tweets na net eram acompanhados por imagens geradas usando o DALL·E. Essas imagens geralmente eram em estilo cartoon e usavam paletas de cores brilhantes ou tons dramáticos para atrair a atenção.”

Descobriu-se que duas outras redes identificadas pelo OpenAI Wager Bot e Corrupt Remark usam sua API para gerar conversas com usuários no X e enviar-lhes hyperlinks para websites de jogos de azar, bem como fabricar comentários que foram postados no X, respectivamente.

A divulgação ocorre quase dois meses depois que a OpenAI proibiu um conjunto de contas vinculadas a uma operação secreta de influência iraniana chamada Storm-2035, que aproveitou o ChatGPT para gerar conteúdo que, entre outras coisas, focava nas próximas eleições presidenciais dos EUA.

“Os atores de ameaças usaram mais frequentemente nossos modelos para executar tarefas em uma fase intermediária específica da atividade – depois de terem adquirido ferramentas básicas, como acesso à Web, endereços de e-mail e contas de mídia social, mas antes de implantarem produtos 'acabados', como mídia social postagens ou malware na Web por meio de vários canais de distribuição”, escreveram Nimmo e Flossman.

A empresa de segurança cibernética Sophos, num relatório publicado na semana passada, disse que a IA generativa poderia ser utilizada de forma abusiva para disseminar desinformação personalizada através de e-mails microdirecionados.

Isto implica o abuso de modelos de IA para inventar web sites de campanhas políticas, personas geradas por IA em todo o espectro político e mensagens de e-mail que os visam especificamente com base nos pontos da campanha, permitindo assim um novo nível de automatização que torna possível espalhar desinformação em grande escala. .

“Isso significa que um usuário pode gerar qualquer coisa, desde materials de campanha benigno até desinformação intencional e ameaças maliciosas com pequena reconfiguração”, disseram os pesquisadores Ben Gelman e Adarsh ​​Kyadige.

“É possível associar qualquer movimento ou candidato político actual ao apoio a qualquer política, mesmo que não concordem. A desinformação intencional como esta pode fazer com que as pessoas se alinhem com um candidato que não apoiam ou discordem de um que pensavam gostar. “

Exit mobile version