Tech

5 etapas práticas para evitar vazamentos de dados GenAI sem bloquear totalmente o uso de IA

IA generativa

Desde o seu surgimento, a IA generativa revolucionou a produtividade empresarial. As ferramentas GenAI permitem desenvolvimento de software program, análise financeira, planejamento de negócios e envolvimento do cliente mais rápidos e eficazes. No entanto, esta agilidade empresarial acarreta riscos significativos, especialmente o potencial de fuga de dados sensíveis. À medida que as organizações tentam equilibrar os ganhos de produtividade com as preocupações de segurança, muitas foram forçadas a escolher entre o uso irrestrito do GenAI ou a sua proibição whole.

Um novo guia eletrônico da LayerX intitulado 5 medidas acionáveis ​​para prevenir o vazamento de dados por meio de ferramentas de IA generativas foi projetado para ajudar as organizações a enfrentar os desafios do uso de GenAI no native de trabalho. O guia oferece etapas práticas para os gerentes de segurança protegerem dados corporativos confidenciais e, ao mesmo tempo, colherem os benefícios de produtividade das ferramentas GenAI, como o ChatGPT. Esta abordagem pretende permitir que as empresas encontrem o equilíbrio certo entre inovação e segurança.

Por que se preocupar com o ChatGPT?

O guia eletrônico aborda a preocupação crescente de que o uso irrestrito de GenAI possa levar à exposição não intencional de dados. Por exemplo, conforme destacado por incidentes como o vazamento de dados da Samsung. Nesse caso, os funcionários expuseram acidentalmente código proprietário ao usar o ChatGPT, levando ao banimento whole das ferramentas GenAI na empresa. Tais incidentes sublinham a necessidade de as organizações desenvolverem políticas e controlos robustos para mitigar os riscos associados à GenAI.

Nossa compreensão do risco não é apenas anedótica. De acordo com pesquisa da LayerX Safety:

  • 15% dos usuários corporativos colaram dados em ferramentas GenAI.
  • 6% dos usuários corporativos colaram confidencial dados, como código-fonte, PII ou informações organizacionais confidenciais, em ferramentas GenAI.
  • Entre os 5% principais usuários do GenAI, que são os usuários mais pesados, 50% pertencem à P&D.
  • O código-fonte é o principal tipo de dados confidenciais expostos, representando 31% dos dados expostos

Principais etapas para gerentes de segurança

O que os gestores de segurança podem fazer para permitir a utilização da GenAI sem expor a organização a riscos de exfiltração de dados? Os principais destaques do guia eletrônico incluem as seguintes etapas:

  1. Mapeando o uso de IA na organização – Comece entendendo o que você precisa proteger. Mapeie quem está usando as ferramentas GenAI, de que forma, para quais finalidades e que tipos de dados estão sendo expostos. Esta será a base de uma estratégia eficaz de gestão de riscos.
  2. Restringindo contas pessoais – Em seguida, aproveite a proteção oferecida pelas ferramentas GenAI. As contas corporativas GenAI fornecem medidas de segurança integradas que podem reduzir significativamente o risco de vazamento de dados confidenciais. Isso inclui restrições aos dados usados ​​para fins de treinamento, restrições à retenção de dados, limitações de compartilhamento de contas, anonimato e muito mais. Observe que isso requer a aplicação do uso de contas não pessoais ao usar GenAI (o que requer uma ferramenta proprietária para fazer isso).
  3. Solicitando aos usuários – Como terceiro passo, use o poder dos seus próprios funcionários. Mensagens simples de lembrete que aparecem ao usar as ferramentas GenAI ajudarão a conscientizar os funcionários sobre as possíveis consequências de suas ações e das políticas organizacionais. Isso pode efetivamente reduzir o comportamento de risco.
  4. Bloqueio de entrada de informações confidenciais – Agora é hora de introduzir tecnologia avançada. Implemente controles automatizados que restrinjam a entrada de grandes quantidades de dados confidenciais nas ferramentas GenAI. Isso é especialmente eficaz para evitar que os funcionários compartilhem código-fonte, informações de clientes, PII, dados financeiros e muito mais.
  5. Restringindo extensões de navegador GenAI – Finalmente, evite o risco de extensões do navegador. Gerencie e classifique automaticamente extensões de navegador de IA com base no risco para evitar acesso não autorizado a dados organizacionais confidenciais.

Para aproveitar todos os benefícios de produtividade da IA ​​generativa, as empresas precisam encontrar o equilíbrio entre produtividade e segurança. Como resultado, a segurança da GenAI não deve ser uma escolha binária entre permitir todas as atividades de IA ou bloquear todas elas. Em vez disso, adotar uma abordagem mais sutil e ajustada permitirá que as organizações colham os benefícios comerciais, sem deixá-las expostas. Para os gestores de segurança, este é o caminho para se tornarem um importante parceiro e facilitador de negócios.

Baixe o guia para saber como você também pode implementar essas etapas imediatamente.

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button