Em 2023, a Meta AI propôs treinar seus grandes modelos de linguagem (LLMs) em dados de usuários da Europa. Esta proposta visa melhorar a capacidade dos LLMs de entender o dialeto, a geografia e as referências culturais dos usuários europeus.
A Meta desejava expandir para a Europa para otimizar a precisão de seus sistemas de tecnologia de inteligência synthetic (IA) treinando-os para usar dados do usuário. No entanto, a Comissão Irlandesa de Proteção de Dados (DPC) levantou grandes preocupações com privacidade, forçando a Meta a pausar sua expansão.
Este weblog discute as preocupações do DPC com privacidade e segurança de dados e como a Meta respondeu a elas.
Preocupações com a privacidade levantadas pelo DCP
O DPC é o principal regulador da Meta na União Europeia (UE). Após reclamações, o DPC está investigando as práticas de dados da Meta. Embora tenha solicitado que a Meta pause seus planos até depois de uma investigação, pode exigir mudanças ou esclarecimentos adicionais da Meta durante a investigação.
Um desses reclamantes, NOYB (none of your online business), uma organização ativista de privacidade, apresentou onze reclamações. Nelas, eles argumentaram que a Meta violou vários aspectos do Regulamento Geral de Proteção de Dados (GDPR). Um motivo citado foi que a Meta não pediu explicitamente a permissão dos usuários para acessar seus dados, mas apenas deu a eles a opção de recusar.
Em uma instância anterior, as tentativas da Meta foram encerradas quando ela planejou realizar publicidade direcionada para europeus. O Tribunal de Justiça da União Europeia (CJEU) decidiu que a Meta não poderia usar “interesse legítimo” como justificativa. Essa decisão impactou negativamente a Meta, pois a empresa se baseou principalmente nas disposições do GDPR para defender suas práticas.
O DPC apresentou uma lista de preocupações, incluindo:
- Ausência de Consentimento Explícito: Como mencionado anteriormente, as intenções da Meta não eram inteiramente consensuais. Suas práticas, enviando acordos de consentimento em notificações e potencialmente fazendo com que fossem ignoradas, dificultavam que os usuários escolhessem recusar.
- Coleta de dados desnecessária: O GDPR afirma que apenas dados necessários devem ser coletados. No entanto, o DPC argumentou que a coleta de dados da Meta period excessivamente ampla e não tinha especificações.
- Problemas com transparência: Os usuários não eram informados exatamente como seus dados seriam usados, criando um déficit de confiança. Isso ia contra os princípios de transparência e responsabilidade do GDPR.
Essas regulamentações rigorosas representaram obstáculos significativos para a Meta, que respondeu discordando da investigação do DPC e mantendo sua posição de conformidade.
Resposta de Meta
A Meta ficou decepcionada com a pausa e respondeu às preocupações do DPC. Eles afirmaram que suas ações estavam em conformidade com os regulamentos, citando a disposição do GDPR de “interesses legítimos” para justificar as práticas de processamento de dados.
Além disso, a Meta argumentou que informou os usuários em tempo hábil por meio de vários canais de comunicação e que suas práticas de IA buscam melhorar a experiência do usuário sem comprometer a privacidade.
Em resposta à preocupação do opt-in do usuário, a Meta argumentou que essa abordagem teria limitado o quantity de dados, tornando o projeto ineficaz. É por isso que a notificação foi colocada estrategicamente para preservar o quantity de dados.
No entanto, os críticos enfatizaram que confiar em “interesses legítimos” period insuficiente para a conformidade com o GDPR e opaco para o consentimento explícito do usuário. Além disso, eles consideraram a extensão da transparência inadequada, com muitos usuários alheios à extensão em que seus dados estavam sendo usados.
Uma declaração emitida pelo Diretor de Engajamento World da Meta destacou o comprometimento da empresa com a privacidade do usuário e a conformidade regulatória. Nela, ele enfatizou que a Meta abordaria as preocupações do DPC e trabalharia para melhorar as medidas de segurança de dados. Além disso, a Meta está comprometida com a conscientização do usuário, privacidade do usuário e desenvolvimento de sistemas de IA responsáveis e explicáveis.
Consequências da pausa da IA da Meta
Como resultado da pausa, a Meta teve que reestruturar e realocar seu capital financeiro e humano adequadamente. Isso impactou negativamente suas operações, levando a uma maior recalibração.
Além disso, isso levou à incerteza em torno das regulamentações que regem as práticas de dados. A decisão do DPC também abrirá caminho para uma period em que a indústria de tecnologia pode experimentar regulamentações muito mais rigorosas.
O metaverso da Meta, considerado o “sucessor da web móvel”, também passará por uma desaceleração. Como reunir dados de usuários em diferentes culturas é um dos fatores essenciais para o desenvolvimento do metaverso, a pausa interrompe seu desenvolvimento.
A pausa afetou severamente a percepção pública da Meta. A Meta está considerando potencialmente perder sua vantagem competitiva, especialmente no espaço LLM. Além disso, devido à pausa, as partes interessadas duvidarão da capacidade da empresa de gerenciar dados do usuário e cumprir as regulamentações de privacidade.
Implicações mais amplas
A decisão do DPC impactará a legislação e as regulamentações em torno da privacidade e segurança de dados. Além disso, isso levará outras empresas do setor de tecnologia a tomar medidas de precaução para melhorar suas políticas de proteção de dados. Gigantes da tecnologia como a Meta devem equilibrar inovação e privacidade, garantindo que esta última não seja comprometida.
Além disso, essa pausa apresenta uma oportunidade para empresas de tecnologia aspirantes capitalizarem o revés da Meta. Ao assumir a liderança e não cometer os mesmos erros da Meta, essas empresas podem impulsionar o crescimento.
Para se manter atualizado com notícias e desenvolvimentos de IA ao redor do mundo, visite Unite.ai.