Tech

Preenchendo a lacuna de confiança da IA

A adoção da IA ​​está a atingir um ponto de inflexão crítico. As empresas estão a abraçar com entusiasmo a IA, impulsionadas pela sua promessa de alcançar melhorias de ordem de grandeza nas eficiências operacionais.

Uma pesquisa recente do Slack descobriu que a adoção da IA ​​continua a acelerar, com o uso da IA ​​nos locais de trabalho registrando um aumento recente de 24% e 96% dos executivos pesquisados ​​acreditando que “é urgente integrar a IA em suas operações comerciais”.

No entanto, existe uma divisão cada vez maior entre a utilidade da IA ​​e a ansiedade crescente sobre os seus potenciais impactos adversos. Apenas 7%dos trabalhadores administrativos acreditam que os resultados da IA ​​são suficientemente fiáveis ​​para os ajudar nas tarefas relacionadas com o trabalho.

Esta lacuna é evidente no forte contraste entre o entusiasmo dos executivos pela integração da IA ​​e o ceticismo dos funcionários em relação a fatores como:

O papel da legislação na construção da confiança

Para resolver estas questões multifacetadas de confiança, as medidas legislativas são cada vez mais vistas como um passo necessário. A legislação pode desempenhar um papel elementary na regulação do desenvolvimento e implantação da IA, aumentando assim a confiança. As principais abordagens legislativas incluem:

  • Leis de proteção de dados e privacidade: A implementação de leis rigorosas de proteção de dados garante que os sistemas de IA tratem os dados pessoais de forma responsável. Regulamentações como o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia estabelecem um precedente ao exigir transparência, minimização de dados e consentimento do usuário. Em explicit, o Artigo 22 do RGPD protege os titulares dos dados dos potenciais impactos adversos da tomada de decisões automatizada. Decisões recentes do Tribunal de Justiça da União Europeia (TJUE) afirmam os direitos de uma pessoa de não ser sujeita a decisões automatizadas. No caso da Schufa Holding AG, onde foi recusado um empréstimo bancário a um residente alemão com base num sistema automatizado de decisão de crédito, o tribunal considerou que o Artigo 22 exige que as organizações implementem medidas para salvaguardar os direitos de privacidade relacionados com a utilização de IA tecnologias.
  • Regulamentos de IA: A União Europeia ratificou a Lei de IA da UE (EU FAÇO), que visa common a utilização de sistemas de IA com base nos seus níveis de risco. A lei inclui requisitos obrigatórios para sistemas de IA de alto risco, abrangendo áreas como qualidade de dados, documentação, transparência e supervisão humana. Um dos principais benefícios das regulamentações de IA é a promoção da transparência e explicabilidade dos sistemas de IA. Além disso, a AIA da UE estabelece quadros de responsabilização claros, garantindo que os criadores, os operadores e até os utilizadores de sistemas de IA são responsáveis ​​pelas suas ações e pelos resultados da implantação da IA. Isto inclui mecanismos de reparação caso um sistema de IA trigger danos. Quando indivíduos e organizações são responsabilizados, aumenta a confiança de que os sistemas de IA são geridos de forma responsável.

Iniciativas de Padrões para promover uma cultura de IA confiável

As empresas não precisam esperar a execução de novas leis para estabelecer se seus processos estão dentro de diretrizes éticas e confiáveis. As regulamentações de IA funcionam em conjunto com iniciativas emergentes de padrões de IA que capacitam as organizações a implementar governança responsável de IA e melhores práticas durante todo o ciclo de vida dos sistemas de IA, abrangendo design, implementação, implantação e, eventualmente, descomissionamento.

O Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos desenvolveu uma Estrutura de Gestão de Riscos de IA para orientar as organizações no gerenciamento de riscos relacionados à IA. A estrutura está estruturada em torno de quatro funções principais:

  • Compreender o sistema de IA e o contexto em que opera. Isto inclui definir a finalidade, as partes interessadas e os potenciais impactos do sistema de IA.
  • Quantificar os riscos associados ao sistema de IA, incluindo aspectos técnicos e não técnicos. Isso envolve avaliar o desempenho, a confiabilidade e possíveis vieses do sistema.
  • Implementar estratégias para mitigar os riscos identificados. Isto inclui o desenvolvimento de políticas, procedimentos e controlos para garantir que o sistema de IA funciona dentro de níveis de risco aceitáveis.
  • Estabelecer estruturas de governação e mecanismos de responsabilização para supervisionar o sistema de IA e os seus processos de gestão de riscos. Isto envolve revisões e atualizações regulares da estratégia de gestão de riscos.

Em resposta aos avanços nas tecnologias generativas de IA, o NIST também publicou Synthetic Intelligence Threat Administration Framework: Generative Synthetic Intelligence Profile, que fornece orientação para mitigar riscos específicos associados aos Modelos Fundamentais. Essas medidas abrangem a protecção contra utilizações nefastas (por exemplo, desinformação, conteúdos degradantes, discurso de ódio) e aplicações éticas da IA ​​que se centram nos valores humanos de justiça, privacidade, segurança da informação, propriedade intelectual e sustentabilidade.

Além disso, a Organização Internacional de Normalização (ISO) e a Comissão Eletrotécnica Internacional (IEC) desenvolveram em conjunto a ISO/IEC 23894, uma norma abrangente para a gestão de riscos de IA. Esta norma fornece uma abordagem sistemática para identificar e gerenciar riscos ao longo do ciclo de vida da IA, incluindo identificação de riscos, avaliação da gravidade do risco, tratamento para mitigá-lo ou evitá-lo e monitoramento e revisão contínuos.

O futuro da IA ​​e da confiança pública

Olhando para o futuro, o futuro da IA ​​e da confiança pública provavelmente dependerá de vários fatores-chave que são essenciais para todas as organizações seguirem:

  • Realizar uma avaliação de risco abrangente para identificar possíveis problemas de conformidade. Avalie as implicações éticas e potenciais preconceitos nos seus sistemas de IA.
  • Estabelecer uma equipe multifuncional, incluindo profissionais jurídicos, de conformidade, de TI e de ciência de dados. Esta equipa deve ser responsável por monitorizar as alterações regulamentares e garantir que os seus sistemas de IA aderem às novas regulamentações.
  • Implementar uma estrutura de governança que inclua políticas, procedimentos e funções para gerenciar iniciativas de IA. Garanta a transparência nas operações de IA e nos processos de tomada de decisão.
  • Realização de auditorias internas regulares para garantir a conformidade com os regulamentos de IA. Use ferramentas de monitoramento para acompanhar o desempenho do sistema de IA e a adesão aos padrões regulatórios.
  • Educar os funcionários sobre a ética da IA, requisitos regulatórios e práticas recomendadas. Ofereça sessões de treinamento contínuas para manter a equipe informada sobre as mudanças nas regulamentações de IA e nas estratégias de conformidade.
  • Manter registros detalhados dos processos de desenvolvimento de IA, uso de dados e critérios de tomada de decisão. Put together-se para gerar relatórios que possam ser submetidos aos reguladores, se necessário.
  • Construir relacionamentos com órgãos reguladores e participar de consultas públicas. Fornecer suggestions sobre as regulamentações propostas e buscar esclarecimentos quando necessário.

Contextualize a IA para alcançar uma IA confiável

Em última análise, uma IA confiável depende da integridade dos dados. A dependência da IA ​​generativa de grandes conjuntos de dados não significa precisão e fiabilidade dos resultados; na verdade, é contra-intuitivo para ambos os padrões. Retrieval Augmented Technology (RAG) é uma técnica inovadora que “combina LLMs estáticos com dados específicos do contexto. E pode ser considerado um assessor altamente experiente. Um que mix o contexto da consulta com dados específicos de uma base de conhecimento abrangente.” O RAG permite que as organizações forneçam aplicativos específicos de contexto que atendem às expectativas de privacidade, segurança, precisão e confiabilidade. O RAG melhora a precisão das respostas geradas ao recuperar informações relevantes de uma base de conhecimento ou repositório de documentos. Isso permite que o modelo baseie sua geração em informações precisas e atualizadas.

O RAG capacita as organizações a criar aplicações de IA específicas que sejam altamente precisas, sensíveis ao contexto e adaptáveis, a fim de melhorar a tomada de decisões, aprimorar as experiências do cliente, agilizar as operações e obter vantagens competitivas significativas.

Preencher a lacuna de confiança na IA envolve garantir transparência, responsabilidade e uso ético da IA. Embora não exista uma resposta única para a manutenção destes padrões, as empresas têm estratégias e ferramentas à sua disposição. A implementação de medidas robustas de privacidade de dados e a adesão aos padrões regulatórios aumentam a confiança do usuário. Auditar regularmente os sistemas de IA em busca de preconceitos e imprecisões garante justiça. Aumentar grandes modelos de linguagem (LLMs) com IA desenvolvida especificamente proporciona confiança ao incorporar bases de conhecimento e fontes de dados proprietárias. Envolver as partes interessadas sobre as capacidades e limitações da IA ​​também promove a confiança e a aceitação

Uma IA confiável não é fácil de alcançar, mas é um compromisso important para o nosso futuro.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button