Alex Fink é um executivo de tecnologia e fundador e CEO da Otherweb, uma Public Profit Company que usa IA para ajudar as pessoas a ler notícias e comentários, ouvir podcasts e pesquisar na internet sem paywalls, clickbait, anúncios, vídeos de reprodução automática, hyperlinks de afiliados ou qualquer outro conteúdo “lixo”. A Otherweb está disponível como um aplicativo (iOS e Android), um website, um boletim informativo ou uma extensão de navegador independente. Antes da Otherweb, Alex foi fundador e CEO da Panopteo e cofundador e presidente da Swarmer.
Você pode nos dar uma visão geral da Otherweb e sua missão de criar um espaço de notícias livre de lixo?
A Otherweb é uma corporação de benefício público, criada para ajudar a melhorar a qualidade das informações que as pessoas consomem.
Nosso principal produto é um aplicativo de notícias que usa IA para filtrar lixo e permitir aos usuários personalizações ilimitadas, controlando todos os limites de qualidade e todos os mecanismos de classificação usados pelo aplicativo.
Em outras palavras, enquanto o resto do mundo cria algoritmos de caixa-preta para maximizar o engajamento do usuário, queremos dar aos usuários o máximo de valor no menor tempo possível, e tornamos tudo personalizável. Até disponibilizamos nossos modelos de IA e conjuntos de dados na fonte para que as pessoas possam ver exatamente o que estamos fazendo e como avaliamos o conteúdo.
O que inspirou você a se concentrar no combate à desinformação e às notícias falsas usando IA?
Eu nasci na União Soviética e vi o que acontece com uma sociedade quando todos consomem propaganda, e ninguém tem ideia do que está acontecendo no mundo. Tenho memórias vívidas dos meus pais acordando às 4 da manhã, se trancando no armário e ligando o rádio para ouvir a Voice of America. Period ilegal, claro, e é por isso que eles faziam isso à noite e se certificavam de que os vizinhos não pudessem ouvir – mas nos deu acesso a informações reais. Como resultado, saímos 3 meses antes de tudo desmoronar e a guerra estourar na minha cidade natal.
Na verdade, lembro-me de ver fotos de tanques na rua onde cresci e pensar “então é isso que vale a informação actual”.
Quero que mais pessoas tenham acesso a informações reais e de alta qualidade.
Quão significativa é a ameaça dos deepfakes, particularmente no contexto de influenciar eleições? Você pode compartilhar exemplos específicos de como os deepfakes foram usados para espalhar desinformação e o impacto que eles tiveram?
No curto prazo, é uma ameaça muito séria.
Os eleitores não percebem que gravações de vídeo e áudio não são mais confiáveis. Eles acham que o vídeo é evidência de que algo aconteceu, e 2 anos atrás isso ainda period verdade, mas agora obviamente não é mais o caso.
Este ano, no Paquistão, os eleitores de Imran Khan receberam ligações do próprio Imran Khan, pessoalmente, pedindo que boicotassem a eleição. Period falso, claro, mas muitas pessoas acreditaram.
Eleitores na Itália viram uma de suas políticas aparecer em um vídeo pornográfico. Period falso, claro, mas quando a falsificação foi descoberta, o dano já estava feito.
Mesmo aqui no Arizona, vimos um boletim informativo anunciar a si mesmo mostrando um vídeo de endosso estrelado por Kari Lake. Ela nunca o endossou, é claro, mas o boletim informativo ainda conseguiu milhares de assinantes.
Então, quando chegar novembro, acho que é quase inevitável que veremos pelo menos uma bomba falsa. E é bem provável que ela caia emblem antes da eleição e se revele falsa emblem depois da eleição – quando o estrago já foi feito.
Quão eficazes são as ferramentas de IA atuais na identificação de deepfakes e quais melhorias você prevê para o futuro?
No passado, a melhor maneira de identificar imagens falsas period dar zoom e procurar pelos erros característicos (também conhecidos como “artefatos”) que os criadores de imagens tendiam a cometer. Iluminação incorreta, sombras faltando, bordas irregulares em certos objetos, compressão excessiva ao redor dos objetos, and many others.
O problema com a edição baseada em GAN (também conhecida como “deepfake”) é que nenhum desses artefatos comuns está presente. A maneira como o processo funciona é que um modelo de IA edita a imagem, e outro modelo de IA procura artefatos e os aponta – e o ciclo é repetido várias vezes até que não haja mais artefatos.
Como resultado, geralmente não há como identificar um vídeo deepfake bem feito apenas observando o conteúdo em si.
Temos que mudar nossa mentalidade e começar a assumir que o conteúdo só é actual se pudermos rastrear sua cadeia de custódia até a fonte. Pense nisso como impressões digitais. Ver impressões digitais na arma do crime não é suficiente. Você precisa saber quem encontrou a arma do crime, quem a trouxe de volta para o depósito, and many others. – você tem que ser capaz de rastrear cada vez que ela mudou de mãos e ter certeza de que não foi adulterada.
Que medidas os governos e as empresas de tecnologia podem tomar para evitar a disseminação de informações incorretas durante períodos críticos, como eleições?
O melhor antídoto para a desinformação é o tempo. Se você vir algo que muda as coisas, não tenha pressa em publicar – tire um ou dois dias para verificar se é realmente verdade.
Infelizmente, essa abordagem colide com o modelo de negócios da mídia, que recompensa cliques mesmo que o materials seja falso.
Como a Otherweb utiliza a IA para garantir a autenticidade e a precisão das notícias que agrega?
Descobrimos que há uma forte correlação entre correção e forma. Pessoas que querem dizer a verdade tendem a usar certa linguagem que enfatiza contenção e humildade, enquanto pessoas que desconsideram a verdade tentam obter o máximo de atenção possível.
O maior foco da Otherweb não é a checagem de fatos. É a checagem de formulários. Selecionamos artigos que evitam linguagem que chame a atenção, fornecem referências externas para cada alegação, declaram as coisas como elas são e não usam técnicas de persuasão.
Este método não é perfeito, é claro, e, em teoria, um mau ator poderia escrever uma falsidade no estilo exato que nossos modelos recompensam. Mas, na prática, isso simplesmente não acontece. Pessoas que querem contar mentiras também querem muita atenção – é isso que ensinamos nossos modelos a detectar e filtrar.
Com a crescente dificuldade em discernir imagens reais de falsas, como plataformas como a Otherweb podem ajudar a restaurar a confiança do usuário no conteúdo digital?
A melhor maneira de ajudar as pessoas a consumir melhor conteúdo é experimentar de todos os lados, escolher o melhor de cada um e exercer muita contenção. A maioria da mídia está correndo para publicar informações não verificadas atualmente. Nossa capacidade de cruzar informações de centenas de fontes e focar nos melhores itens nos permite proteger nossos usuários da maioria das formas de desinformação.
Qual o papel dos metadados, como os padrões C2PA, na verificação da autenticidade de imagens e vídeos?
É a única solução viável. O C2PA pode ou não ser o padrão certo, mas está claro que a única maneira de validar se o vídeo que você está assistindo reflete algo que realmente aconteceu na realidade é a) garantir que a câmera usada para capturar o vídeo estava apenas capturando, e não editando, e b) garantir que ninguém editou o vídeo depois que ele saiu da câmera. A melhor maneira de fazer isso é focar nos metadados.
Que desenvolvimentos futuros você prevê na luta contra a desinformação e os deepfakes?
Acredito que, dentro de 2 a 3 anos, as pessoas se adaptarão à nova realidade e mudarão sua mentalidade. Antes do século XIX, a melhor forma de prova period o depoimento de testemunhas oculares. Deepfakes provavelmente nos farão retornar a esses padrões testados e comprovados.
Com a desinformação de forma mais ampla, acredito que é necessário adotar uma visão mais diferenciada e separar a desinformação (ou seja, informações falsas criadas intencionalmente para enganar) do lixo (ou seja, informações criadas para serem monetizadas, independentemente de sua veracidade).
O antídoto para o lixo é um mecanismo de filtragem que torna o lixo menos provável de proliferar. Isso mudaria a estrutura de incentivo que faz o lixo se espalhar como fogo. A desinformação ainda existirá, assim como sempre existiu. Fomos capazes de lidar com isso ao longo do século XX e seremos capazes de lidar com isso no século XXI.
É o dilúvio de lixo com o qual temos que nos preocupar, porque essa é a parte com a qual estamos mal equipados para lidar agora. Esse é o principal problema que a humanidade precisa resolver.
Quando mudarmos os incentivos, a relação sinal-ruído da web melhorará para todos.
Obrigado pela ótima entrevista. Os leitores que desejarem saber mais devem visitar o website Otherweb ou segui-los no X ou no LinkedIn.