Tech

Alex Fink, executivo de tecnologia, fundador e CEO da Otherweb – Série de entrevistas

Alex Fink é um executivo de tecnologia e fundador e CEO da Otherweb, uma Public Profit Company que usa IA para ajudar as pessoas a ler notícias e comentários, ouvir podcasts e pesquisar na internet sem paywalls, clickbait, anúncios, vídeos de reprodução automática, hyperlinks de afiliados ou qualquer outro conteúdo “lixo”. A Otherweb está disponível como um aplicativo (iOS e Android), um website, um boletim informativo ou uma extensão de navegador independente. Antes da Otherweb, Alex foi fundador e CEO da Panopteo e cofundador e presidente da Swarmer.

Você pode nos dar uma visão geral da Otherweb e sua missão de criar um espaço de notícias livre de lixo?

A Otherweb é uma corporação de benefício público, criada para ajudar a melhorar a qualidade das informações que as pessoas consomem.

Nosso principal produto é um aplicativo de notícias que usa IA para filtrar lixo e permitir aos usuários personalizações ilimitadas, controlando todos os limites de qualidade e todos os mecanismos de classificação usados ​​pelo aplicativo.

Em outras palavras, enquanto o resto do mundo cria algoritmos de caixa-preta para maximizar o engajamento do usuário, queremos dar aos usuários o máximo de valor no menor tempo possível, e tornamos tudo personalizável. Até disponibilizamos nossos modelos de IA e conjuntos de dados na fonte para que as pessoas possam ver exatamente o que estamos fazendo e como avaliamos o conteúdo.

O que inspirou você a se concentrar no combate à desinformação e às notícias falsas usando IA?

Eu nasci na União Soviética e vi o que acontece com uma sociedade quando todos consomem propaganda, e ninguém tem ideia do que está acontecendo no mundo. Tenho memórias vívidas dos meus pais acordando às 4 da manhã, se trancando no armário e ligando o rádio para ouvir a Voice of America. Period ilegal, claro, e é por isso que eles faziam isso à noite e se certificavam de que os vizinhos não pudessem ouvir – mas nos deu acesso a informações reais. Como resultado, saímos 3 meses antes de tudo desmoronar e a guerra estourar na minha cidade natal.

Na verdade, lembro-me de ver fotos de tanques na rua onde cresci e pensar “então é isso que vale a informação actual”.

Quero que mais pessoas tenham acesso a informações reais e de alta qualidade.

Quão significativa é a ameaça dos deepfakes, particularmente no contexto de influenciar eleições? Você pode compartilhar exemplos específicos de como os deepfakes foram usados ​​para espalhar desinformação e o impacto que eles tiveram?

No curto prazo, é uma ameaça muito séria.

Os eleitores não percebem que gravações de vídeo e áudio não são mais confiáveis. Eles acham que o vídeo é evidência de que algo aconteceu, e 2 anos atrás isso ainda period verdade, mas agora obviamente não é mais o caso.

Este ano, no Paquistão, os eleitores de Imran Khan receberam ligações do próprio Imran Khan, pessoalmente, pedindo que boicotassem a eleição. Period falso, claro, mas muitas pessoas acreditaram.

Eleitores na Itália viram uma de suas políticas aparecer em um vídeo pornográfico. Period falso, claro, mas quando a falsificação foi descoberta, o dano já estava feito.

Mesmo aqui no Arizona, vimos um boletim informativo anunciar a si mesmo mostrando um vídeo de endosso estrelado por Kari Lake. Ela nunca o endossou, é claro, mas o boletim informativo ainda conseguiu milhares de assinantes.

Então, quando chegar novembro, acho que é quase inevitável que veremos pelo menos uma bomba falsa. E é bem provável que ela caia emblem antes da eleição e se revele falsa emblem depois da eleição – quando o estrago já foi feito.

Quão eficazes são as ferramentas de IA atuais na identificação de deepfakes e quais melhorias você prevê para o futuro?

No passado, a melhor maneira de identificar imagens falsas period dar zoom e procurar pelos erros característicos (também conhecidos como “artefatos”) que os criadores de imagens tendiam a cometer. Iluminação incorreta, sombras faltando, bordas irregulares em certos objetos, compressão excessiva ao redor dos objetos, and many others.

O problema com a edição baseada em GAN (também conhecida como “deepfake”) é que nenhum desses artefatos comuns está presente. A maneira como o processo funciona é que um modelo de IA edita a imagem, e outro modelo de IA procura artefatos e os aponta – e o ciclo é repetido várias vezes até que não haja mais artefatos.

Como resultado, geralmente não há como identificar um vídeo deepfake bem feito apenas observando o conteúdo em si.

Temos que mudar nossa mentalidade e começar a assumir que o conteúdo só é actual se pudermos rastrear sua cadeia de custódia até a fonte. Pense nisso como impressões digitais. Ver impressões digitais na arma do crime não é suficiente. Você precisa saber quem encontrou a arma do crime, quem a trouxe de volta para o depósito, and many others. – você tem que ser capaz de rastrear cada vez que ela mudou de mãos e ter certeza de que não foi adulterada.

Que medidas os governos e as empresas de tecnologia podem tomar para evitar a disseminação de informações incorretas durante períodos críticos, como eleições?

O melhor antídoto para a desinformação é o tempo. Se você vir algo que muda as coisas, não tenha pressa em publicar – tire um ou dois dias para verificar se é realmente verdade.

Infelizmente, essa abordagem colide com o modelo de negócios da mídia, que recompensa cliques mesmo que o materials seja falso.

Como a Otherweb utiliza a IA para garantir a autenticidade e a precisão das notícias que agrega?

Descobrimos que há uma forte correlação entre correção e forma. Pessoas que querem dizer a verdade tendem a usar certa linguagem que enfatiza contenção e humildade, enquanto pessoas que desconsideram a verdade tentam obter o máximo de atenção possível.

O maior foco da Otherweb não é a checagem de fatos. É a checagem de formulários. Selecionamos artigos que evitam linguagem que chame a atenção, fornecem referências externas para cada alegação, declaram as coisas como elas são e não usam técnicas de persuasão.

Este método não é perfeito, é claro, e, em teoria, um mau ator poderia escrever uma falsidade no estilo exato que nossos modelos recompensam. Mas, na prática, isso simplesmente não acontece. Pessoas que querem contar mentiras também querem muita atenção – é isso que ensinamos nossos modelos a detectar e filtrar.

Com a crescente dificuldade em discernir imagens reais de falsas, como plataformas como a Otherweb podem ajudar a restaurar a confiança do usuário no conteúdo digital?

A melhor maneira de ajudar as pessoas a consumir melhor conteúdo é experimentar de todos os lados, escolher o melhor de cada um e exercer muita contenção. A maioria da mídia está correndo para publicar informações não verificadas atualmente. Nossa capacidade de cruzar informações de centenas de fontes e focar nos melhores itens nos permite proteger nossos usuários da maioria das formas de desinformação.

Qual o papel dos metadados, como os padrões C2PA, na verificação da autenticidade de imagens e vídeos?

É a única solução viável. O C2PA pode ou não ser o padrão certo, mas está claro que a única maneira de validar se o vídeo que você está assistindo reflete algo que realmente aconteceu na realidade é a) garantir que a câmera usada para capturar o vídeo estava apenas capturando, e não editando, e b) garantir que ninguém editou o vídeo depois que ele saiu da câmera. A melhor maneira de fazer isso é focar nos metadados.

Que desenvolvimentos futuros você prevê na luta contra a desinformação e os deepfakes?

Acredito que, dentro de 2 a 3 anos, as pessoas se adaptarão à nova realidade e mudarão sua mentalidade. Antes do século XIX, a melhor forma de prova period o depoimento de testemunhas oculares. Deepfakes provavelmente nos farão retornar a esses padrões testados e comprovados.

Com a desinformação de forma mais ampla, acredito que é necessário adotar uma visão mais diferenciada e separar a desinformação (ou seja, informações falsas criadas intencionalmente para enganar) do lixo (ou seja, informações criadas para serem monetizadas, independentemente de sua veracidade).

O antídoto para o lixo é um mecanismo de filtragem que torna o lixo menos provável de proliferar. Isso mudaria a estrutura de incentivo que faz o lixo se espalhar como fogo. A desinformação ainda existirá, assim como sempre existiu. Fomos capazes de lidar com isso ao longo do século XX e seremos capazes de lidar com isso no século XXI.

É o dilúvio de lixo com o qual temos que nos preocupar, porque essa é a parte com a qual estamos mal equipados para lidar agora. Esse é o principal problema que a humanidade precisa resolver.

Quando mudarmos os incentivos, a relação sinal-ruído da web melhorará para todos.

Obrigado pela ótima entrevista. Os leitores que desejarem saber mais devem visitar o website Otherweb ou segui-los no X ou no LinkedIn.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button