Tech

Deepfakes e navegando na nova period da mídia sintética

Lembra das “notícias falsas”? O termo tem sido usado (e abusado) tão extensivamente neste ponto que pode ser difícil lembrar a que se referia inicialmente. Mas o conceito tem uma origem muito específica. Dez anos atrás, jornalistas começaram a soar o alarme sobre um influxo de supostos websites de “notícias” lançando alegações falsas, muitas vezes absurdas, sobre políticos e celebridades. Muitos podiam dizer instantaneamente que esses websites eram ilegítimos.

Mas muitos outros não tinham as ferramentas críticas para reconhecer isso. O resultado foi o primeiro sinal de uma crise epistemológica que agora está chegando para engolir a web — uma que atingiu sua manifestação mais assustadora com o surgimento dos deepfakes.

Ao lado de um deepfake passável, os websites de “notícias falsas” de antigamente parecem mansos. Pior ainda, mesmo aqueles que acreditam possuir níveis relativamente altos de alfabetização midiática correm o risco de serem enganados. A mídia sintética criada com o uso de algoritmos de aprendizado profundo e IA generativa tem o potencial de causar estragos nas fundações da nossa sociedade. De acordo com a Deloitte, somente neste ano eles podem custar às empresas mais de US$ 250 milhões por meio de transações falsas e outras variedades de fraude. Enquanto isso, o Fórum Econômico Mundial chamou os deepfakes de “um dos usos mais preocupantes da IA”, apontando para o potencial de “chatbots e avatares de IA em tempo actual e orientados por agenda” para facilitar novas cepas de manipulação ultrapersonalizada (e ultraeficaz).

A resposta sugerida pelo WEF para esse problema é sensata: eles defendem uma “mentalidade de confiança zero”, uma que traz um grau de ceticismo a cada encontro com a mídia digital. Se quisermos distinguir entre o autêntico e o sintético daqui para frente — especialmente em ambientes on-line imersivos — tal mentalidade será cada vez mais essencial.

Duas abordagens para combater a crise do deepfake

Combater a desinformação desenfreada gerada pela mídia sintética exigirá, na minha opinião, duas abordagens distintas.

A primeira envolve verificação: fornecer uma maneira simples para usuários comuns da web determinarem se o vídeo que estão assistindo é realmente autêntico. Essas ferramentas já são amplamente difundidas em setores como seguros, dado o potencial de atores mal-intencionados de registrar falsas alegações apoiadas por vídeos, fotografias e documentos adulterados. Democratizar essas ferramentas — tornando-as gratuitas e fáceis de acessar — ​​é um primeiro passo essential nessa luta, e já estamos vendo um movimento significativo nessa frente.

O segundo passo é menos tecnológico por natureza e, portanto, mais desafiador: ou seja, aumentar a conscientização e promover habilidades de pensamento crítico. Após o escândalo authentic das “notícias falsas”, em 2015, organizações sem fins lucrativos em todo o país elaboraram programas de alfabetização midiática e trabalharam para disseminar as melhores práticas, muitas vezes se unindo a instituições cívicas locais para capacitar cidadãos comuns a identificar falsidades. Claro, as “notícias falsas” da velha escola são brincadeira de criança perto dos deepfakes mais avançados, e é por isso que precisamos redobrar nossos esforços nessa frente e investir em educação em todos os níveis.

Deepfakes avançados exigem pensamento crítico avançado

Claro, essas iniciativas educacionais eram um pouco mais fáceis de empreender quando a desinformação em questão period baseada em texto. Com websites de notícias falsas, os sinais reveladores de fraude eram frequentemente óbvios: net design desajeitado, erros de digitação desenfreados, fontes bizarras. Com deepfakes, os sinais são muito mais sutis — e muitas vezes impossíveis de notar à primeira vista.

Consequentemente, os usuários da web de todas as idades precisam se retreinar efetivamente para examinar vídeos digitais em busca de indicadores de deepfake. Isso significa prestar muita atenção a uma série de fatores. Para vídeo, isso pode significar áreas borradas e sombras que parecem irreais; movimentos e expressões faciais de aparência não pure; tons de pele muito perfeitos; padrões inconsistentes em roupas e movimentos; erros de sincronização labial; e assim por diante. Para áudio, isso pode significar vozes que soam muito cristalinas (ou obviamente digitalizadas), falta de um tom emocional que pareça humano, padrões de fala estranhos ou fraseado incomum.

No curto prazo, esse tipo de autotreinamento pode ser altamente útil. Ao nos perguntarmos, repetidamente, Isso parece suspeito?, aguçamos não apenas nossa capacidade de detectar deepfakes, mas nossas habilidades de pensamento crítico em geral. Dito isso, estamos nos aproximando rapidamente de um ponto em que nem mesmo o olho mais bem treinado será capaz de separar o fato da ficção sem assistência externa. Os sinais visuais — as irregularidades mencionadas acima — serão suavizados tecnologicamente, de modo que clipes totalmente fabricados serão indistinguíveis do artigo genuíno. O que nos restará é nossa intuição situacional — nossa capacidade de nos fazer perguntas como Tal e tal político ou celebridade realmente diria isso? O conteúdo deste vídeo é plausível?

É nesse contexto que as plataformas de detecção de IA se tornam tão essenciais. Com o olho nu twister irrelevante para fins de detecção de deepfake, essas plataformas podem servir como árbitros definitivos da realidade — guarda-corpos contra o abismo epistemológico. Quando um vídeo parece actual, mas de alguma forma parece suspeito — como ocorrerá cada vez mais nos próximos meses e anos — essas plataformas podem nos manter ancorados nos fatos, confirmando a veracidade básica de tudo o que estamos vendo. No last das contas, com uma tecnologia tão poderosa, a única coisa que pode nos salvar é a própria IA. Precisamos combater fogo com fogo — o que significa usar uma boa IA para erradicar os piores abusos da tecnologia.

Realmente, a aquisição dessas habilidades não precisa ser um processo cínico ou negativo. Promover uma mentalidade de confiança zero pode ser pensado como uma oportunidade de aguçar seu pensamento crítico, intuição e consciência. Ao se perguntar, repetidamente, certas perguntas-chave — Isso faz sentido? Isso é suspeito? — você aumenta sua capacidade de confrontar não apenas a mídia falsa, mas o mundo em geral. Se há um lado positivo na period do deepfake, é esse. Estamos sendo forçados a pensar por nós mesmos e a nos tornar mais empíricos em nossas vidas cotidianas — e isso só pode ser uma coisa boa.

Unite AI Mobile Newsletter 1

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button