Paola Zeni, Diretora de Privacidade da RingCentral – Série de Entrevistas

Paola Zeni é a Chief Privateness Officer na RingCentral. Ela é uma advogada de privacidade internacional com mais de 20 anos de experiência em privacidade e veterana do setor de segurança cibernética, tendo trabalhado na Symantec e na Palo Alto Networks, onde construiu o programa de privacidade do zero.

O que o inspirou a seguir uma carreira em privacidade de dados?

No ultimate da década de 1990, quando os Estados-Membros da UE estavam implementando a Diretiva de Proteção de Dados da UE de 1995, a privacidade de dados começou a emergir na Europa como uma questão importante. Como advogado de tecnologia trabalhando com empresas de tecnologia como HP e Agilent Applied sciences, considerei este um tópico relevante e comecei a prestar muita atenção e aumentar meu entendimento sobre os requisitos de privacidade. Eu rapidamente soube que esta period uma área na qual eu queria me envolver, não apenas porque a achava legalmente interessante e desafiadora, mas também porque é uma questão que afeta muitas equipes e muitos processos em toda a organização. Estar envolvido na privacidade de dados significa trabalhar com diferentes grupos e indivíduos e aprender sobre vários aspectos do negócio. Ser capaz de influenciar e impulsionar mudanças em uma questão importante em muitas funções na organização, ao mesmo tempo em que acompanho uma área jurídica crescente, tem sido extremamente gratificante. Trabalhar com privacidade de dados hoje é mais emocionante do que nunca, considerando os desenvolvimentos tecnológicos e as crescentes complexidades legais em nível international.

Quando você se juntou ao RingCentral pela primeira vez, você criou um Centro de Confiançao que é isso especificamente?

Na RingCentral, acreditamos que fornecer aos nossos clientes e parceiros informações sobre a privacidade e a segurança de seus dados é essencial para construir e manter a confiança em nossos serviços. Por esse motivo, continuamos a criar materiais de apoio e recursos, como folhas de dados de privacidade de produtos para nossas principais ofertas, whitepapers e guias de conformidade, e os disponibilizamos aos clientes e parceiros em nosso Belief Middle público. Mais recentemente, adicionamos nosso AI Transparency Whitepaper. O Belief Middle é um componente crítico do nosso compromisso com a transparência com as principais partes interessadas.

Como a RingCentral garante que os princípios de privacidade sejam integrados a todos os produtos e serviços baseados em IA?

A inteligência synthetic pode capacitar as empresas a desbloquear novos potenciais e extrair rapidamente informações e insights significativos de seus dados – mas com esses benefícios, vem a responsabilidade. Na RingCentral, continuamos incansavelmente focados em proteger os clientes e seus dados. Conseguimos isso por meio dos pilares de privacidade que orientam nossas práticas de desenvolvimento de produtos

Privacidade por Design: Alavancamos nossa abordagem de privacidade por design trabalhando em estreita colaboração com consultores de produtos, gerentes de produtos e engenheiros de produtos para incorporar princípios de privacidade e requisitos de privacidade em todos os aspectos de nossos produtos e serviços que implementam IA. As avaliações de privacidade são integradas ao ciclo de vida de desenvolvimento do produto, da ideação à implantação, e construímos sobre isso para conduzir revisões e orientações de IA.

Transparência:Oferecemos garantias e recursos aos clientes, parceiros e usuários sobre como seus dados são coletados e usados, como parte do nosso compromisso com a transparência e a construção de confiança em nossos serviços.

Controle do cliente:Oferecemos opções que capacitam os clientes a manter o controle na decisão como eles querem que nossa IA interaja com seus dados.

Você pode fornecer exemplos de medidas de privacidade específicas incorporadas às soluções de comunicação com IA em primeiro lugar da RingCentral?

Primeiro, adicionamos à nossa documentação de produto informações detalhando como coletamos e processamos dados: quem os armazena, quais terceiros têm acesso a eles, and so on. em nossas folhas de dados de privacidade, que são publicadas em nosso Belief Middle. Chamamos especificamente quais dados servem como entrada para IA e quais dados são gerados como saída da IA. Além disso, como parte de nossas análises de produtos em colaboração com o conselho do produto, implementamos divulgações para atender ao nosso compromisso com a transparência e fornecemos aos administradores de nossos clientes opções para controlar o compartilhamento de dados com a IA.

Por que é essential que as organizações mantenham complete transparência sobre a coleta e o uso de dados na period da IA?

Para promover a adoção de IA confiável, é imperativo que as organizações estabeleçam confiança em como a IA processa dados e na precisão da saída. Isso se estende aos dados em que a IA é treinada, à lógica aplicada pelo algoritmo e à natureza da saída.

Acreditamos que quando os provedores são transparentes e compartilham informações sobre sua IA, como ela funciona e para que é usada, os clientes podem tomar decisões informadas e são capacitados a fornecer divulgações mais específicas aos seus usuários, melhorando assim a adoção da IA ​​e a confiança. Ao desenvolver e fornecer IA, pensamos em todas as partes interessadas: nossos clientes, mas também seus funcionários, parceiros e clientes.

Que medidas as organizações podem tomar para garantir que seus fornecedores cumpram políticas rigorosas de uso de IA?

Na RingCentral, acreditamos que a implantação de IA requer confiança entre nós e nossos fornecedores. Os fornecedores devem se comprometer a incorporar privacidade e segurança de dados na arquitetura de seus produtos. Por esse motivo, construímos nosso processo de due diligence de fornecedores existente adicionando uma revisão de IA específica e implementamos um padrão para o uso de IA de terceiros, com requisitos específicos para a proteção da RingCentral e de nossos clientes.

Quais estratégias a RingCentral emprega para garantir que os dados inseridos nos sistemas de IA sejam precisos e imparciais?

Com a justiça como princípio orientador, estamos constantemente considerando o impacto da nossa IA e continuamos comprometidos em manter a conscientização sobre possíveis vieses e riscos, com mecanismos em vigor para identificar e mitigar quaisquer consequências não intencionais.

  • Adotamos uma estrutura específica para a identificação e prevenção de vieses como parte da nossa Estrutura de Desenvolvimento Ético de IA, que aplicamos a todas as nossas análises de produtos.
  • Nossos casos de uso para IA envolvem um humano no loop para avaliar as saídas de nossos sistemas de IA. Por exemplo, em nossas Good Notes, mesmo sem monitorar o conteúdo das notas produzidas, podemos inferir das ações dos usuários se as notas foram precisas ou não. Se um usuário edita as notas constantemente, ele envia um sinal para o RingCentral para ajustar os prompts.
  • Como outro exemplo de humano no loop, nosso processo de geração aumentada de recuperação permite que a saída seja estritamente focada em bancos de dados de conhecimento específicos e fornece referências para as fontes para as saídas geradas. Isso permite que o humano verifique a resposta e se aprofunde nas próprias referências.

Ao garantir que nossa IA seja precisa, cumprimos nossa promessa de fornecer IA explicável e transparente.

Quais desafios de privacidade surgem com a IA em implantações empresariais em larga escala e como eles são abordados?

Primeiro de tudo, é importante lembrar que as leis de privacidade existentes contêm disposições que são aplicáveis ​​à inteligência synthetic. Quando as leis são neutras em termos de tecnologia, as estruturas legais e os marcos éticos se aplicam às novas tecnologias. Portanto, as organizações precisam garantir que seu uso de IA esteja em conformidade com as leis de privacidade existentes, como GDPR e CPRA.

Segundo, a responsabilidade dos profissionais de privacidade é monitorar leis de IA nascentes e emergentes, que variam de estado para estado e de país para país. As leis de IA abordam vários aspectos da IA, mas uma das principais prioridades para a nova regulamentação de IA é a proteção dos direitos humanos fundamentais, incluindo a privacidade.

Os fatores críticos de sucesso no tratamento de questões de privacidade são a transparência para com os usuários, especialmente quando a IA realiza criação de perfis ou toma decisões automatizadas que afetam indivíduos e possibilita escolhas, para que os usuários possam optar por não usar a IA com o qual não se sintam confortáveis.

Quais tendências futuras você vê em IA e privacidade de dados, e como a RingCentral está se preparando para ficar à frente?

As principais tendências são novas leis que continuarão a entrar em vigor, as crescentes demandas dos usuários por transparência e controle, a necessidade cada vez maior de gerenciar riscos relacionados à IA, incluindo riscos de terceiros, e o aumento dos riscos cibernéticos na IA.

As empresas precisam implementar uma governança robusta e as equipes devem colaborar entre as funções para garantir o alinhamento interno, minimizar riscos e aumentar a confiança dos usuários. Na RingCentral, nosso compromisso contínuo com privacidade, segurança e transparência permanece inigualável. Levamos essas coisas a sério. Por meio de nossa governança de IA e nossos pilares de privacidade de IA, a RingCentral está comprometida com a IA ética.

Obrigado pela ótima entrevista. Os leitores que desejarem saber mais devem visitar o RingCentral.

Unite AI Mobile Newsletter 1

Exit mobile version