Como os deepfakes alimentados por IA ameaçam a integridade eleitoral – e o que fazer a respeito

Os anúncios de campanha já podem ficar um pouco confusos e controversos.

Agora think about que você é alvo de um anúncio de campanha em que um candidato expressa posições fortes que influenciam seu voto – e o anúncio nem é actual. É uma falsificação profunda.

Esta não é uma hipótese futurista; deepfakes são um problema actual e generalizado. Já vimos “endossos” gerados por IA chegando às manchetes, e o que ouvimos apenas arranha a superfície.

À medida que nos aproximamos das eleições presidenciais de 2024 nos EUA, estamos a entrar num território desconhecido em matéria de segurança cibernética e integridade da informação. Trabalhei na interseção entre segurança cibernética e IA desde que ambos eram conceitos nascentes e nunca vi nada parecido com o que está acontecendo agora.

A rápida evolução da inteligência synthetic – especificamente a IA generativa e, claro, a resultante facilidade de criação de deepfakes realistas – transformou o cenário das ameaças eleitorais. Esta nova realidade exige uma mudança nos pressupostos básicos relativos à segurança eleitoral e à educação dos eleitores.

IA armada

Você não precisa considerar minha experiência pessoal como prova; há muitas evidências de que os desafios de segurança cibernética que enfrentamos hoje estão evoluindo a um ritmo sem precedentes. No espaço de apenas alguns anos, testemunhamos uma transformação dramática nas capacidades e metodologias dos potenciais agentes de ameaças. Esta evolução reflete o desenvolvimento acelerado que temos visto nas tecnologias de IA, mas com uma reviravolta preocupante.

Caso em questão:

  • Armamento rápido de vulnerabilidades. Os invasores de hoje podem explorar rapidamente vulnerabilidades recém-descobertas, muitas vezes mais rápido do que os patches podem ser desenvolvidos e implantados. As ferramentas de IA aceleram ainda mais esse processo, diminuindo a janela entre a descoberta e a exploração de vulnerabilidades.
  • Superfície de ataque expandida. A ampla adoção de tecnologias de nuvem ampliou significativamente a superfície potencial de ataque. A infraestrutura distribuída e o modelo de responsabilidade compartilhada entre provedores de nuvem e usuários criam novos vetores de exploração se não forem adequadamente gerenciados.
  • Medidas de segurança tradicionais desatualizadas. Ferramentas de segurança legadas, como firewalls e software program antivírus, estão lutando para acompanhar essas ameaças em evolução, especialmente quando se trata de detectar e mitigar conteúdo gerado por IA.

Olha quem está falando

Neste novo cenário de ameaças, os deepfakes representam um desafio particularmente insidioso à integridade eleitoral. Uma pesquisa recente da Ivanti coloca alguns números na ameaça: mais de metade dos trabalhadores de escritório (54%) não sabem que a IA avançada pode personificar a voz de qualquer pessoa. Esta falta de consciencialização entre os potenciais eleitores é profundamente preocupante à medida que nos aproximamos de um ciclo eleitoral crítico.

Há tanta coisa em jogo.

A sofisticação da tecnologia deepfake atual permite que os atores de ameaças, tanto estrangeiros quanto nacionais, criem conteúdo falso convincente de áudio, vídeo e texto com o mínimo de esforço. Um simples immediate de texto agora pode gerar um deepfake que é cada vez mais difícil de distinguir do conteúdo genuíno. Esta capacidade tem sérias implicações na propagação da desinformação e na manipulação da opinião pública.

Desafios em Atribuição e Mitigação

A atribuição é um dos desafios mais significativos que enfrentamos com a interferência eleitoral gerada pela IA. Embora historicamente tenhamos associado a interferência eleitoral aos intervenientes do Estado-nação, a democratização das ferramentas de IA significa que os grupos nacionais, movidos por várias motivações ideológicas, podem agora aproveitar estas tecnologias para influenciar as eleições.

Esta difusão de potenciais atores de ameaças complica a nossa capacidade de identificar e mitigar fontes de desinformação. Também sublinha a necessidade de uma abordagem multifacetada à segurança eleitoral que vá além das medidas tradicionais de cibersegurança.

Um esforço coordenado para defender a integridade eleitoral

Enfrentar o desafio dos deepfakes alimentados por IA nas eleições exigirá um esforço coordenado em vários setores. Aqui estão as principais áreas onde precisamos concentrar nossos esforços:

  • Segurança shift-left para sistemas de IA. Precisamos de aplicar os princípios da segurança “shift-left” ao desenvolvimento dos próprios sistemas de IA. Isto significa incorporar considerações de segurança desde as fases iniciais do desenvolvimento do modelo de IA, incluindo considerações sobre potencial utilização indevida em interferência eleitoral.
  • Aplicação de configurações seguras. Os sistemas e plataformas de IA que poderiam ser potencialmente usados ​​para gerar deepfakes devem ter configurações robustas e seguras por padrão. Isto inclui fortes medidas de autenticação e restrições aos tipos de conteúdo que podem ser gerados.
  • Protegendo a cadeia de suprimentos de IA. Tal como nos concentramos em proteger a cadeia de abastecimento de software program, precisamos de alargar esta vigilância à cadeia de abastecimento de IA. Isto inclui o exame minucioso dos conjuntos de dados utilizados para treinar modelos de IA e dos algoritmos utilizados em sistemas de IA generativos.
  • Capacidades de detecção aprimoradas. Precisamos de investir e desenvolver ferramentas de deteção avançadas que possam identificar conteúdos gerados por IA, especialmente no contexto de informações relacionadas com eleições. Isto provavelmente envolverá o aproveitamento da própria IA para combater a desinformação gerada pela IA.
  • Educação e conscientização eleitoral. Um componente essential da nossa defesa contra deepfakes é um eleitorado informado. Precisamos de programas educativos abrangentes para ajudar os eleitores a compreender a existência e o potencial impacto dos conteúdos gerados pela IA, e para lhes fornecer ferramentas para avaliar criticamente a informação que encontram.
  • Colaboração intersetorial. O setor tecnológico, especialmente as empresas de TI e de cibersegurança, deve trabalhar em estreita colaboração com agências governamentais, autoridades eleitorais e organizações de comunicação social para criar uma frente unida contra a interferência eleitoral impulsionada pela IA.

O que é agora e o que vem a seguir

À medida que implementamos estas estratégias, é essential medir continuamente a sua eficácia. Isto exigirá novas métricas e ferramentas de monitorização especificamente concebidas para monitorizar o impacto do conteúdo gerado pela IA no discurso eleitoral e no comportamento dos eleitores.

Devemos também estar preparados para adaptar rapidamente as nossas estratégias. O campo da IA ​​está a evoluir a um ritmo vertiginoso e as nossas medidas defensivas devem evoluir com a mesma rapidez. Isto pode envolver o aproveitamento da própria IA para criar medidas de segurança mais robustas e adaptáveis.

O desafio dos deepfakes alimentados por IA nas eleições representa um novo capítulo na segurança cibernética e na integridade da informação. Para resolver esta questão, temos de pensar além dos paradigmas de segurança tradicionais e promover a colaboração entre setores e disciplinas. O objetivo: aproveitar o poder da IA ​​em benefício dos processos democráticos, ao mesmo tempo que mitiga o seu potencial de danos. Este não é apenas um desafio técnico, mas também um desafio social que exigirá vigilância, adaptação e cooperação contínuas.

A integridade das nossas eleições – e, por extensão, a saúde da nossa democracia – depende da nossa capacidade de enfrentar este desafio de frente. É uma responsabilidade que recai sobre todos nós: tecnólogos, decisores políticos e cidadãos.

Unite AI Mobile Newsletter 1

Exit mobile version