Tech

Considerações éticas ao desenvolver IA para reconhecimento de emoções

A inteligência synthetic para regulação emocional é um dos mais recentes avanços tecnológicos no campo do aprendizado de máquina. Embora mostre grande potencial, questões éticas estão prestes a afetar sua taxa de adoção e longevidade. Os desenvolvedores de IA podem superá-los?

O que é IA de reconhecimento de emoções?

A IA de reconhecimento de emoções é um tipo de modelo de aprendizado de máquina. Ela geralmente depende de tecnologia de visão computacional que captura e analisa expressões faciais para decifrar estados de ânimo em imagens e vídeos. No entanto, ela também pode operar em trechos de áudio para determinar o tom de voz ou texto escrito para avaliar o sentimento da linguagem.

Esse tipo de algoritmo representa um progresso fascinante no campo da IA ​​porque, até agora, os modelos não conseguiram compreender os sentimentos humanos. Enquanto grandes modelos de linguagem como o ChatGPT podem simular humores e personas de forma convincente, eles só conseguem encadear palavras logicamente — eles não conseguem sentir nada e não demonstram inteligência emocional. Embora um modelo de reconhecimento de emoções seja incapaz de ter sentimentos, ele ainda pode detectá-los e catalogá-los. Esse desenvolvimento é significativo porque sinaliza que a IA pode em breve ser capaz de genuinamente entender e demonstrar felicidade, tristeza ou raiva. Saltos tecnológicos como esses indicam avanço acelerado.

Casos de uso para reconhecimento de emoções por IA

Empresas, educadores, consultores e profissionais de saúde psychological são alguns dos grupos que podem usar IA para reconhecimento de emoções.

Avaliando Riscos no Escritório

As equipes de recursos humanos podem usar algoritmos para conduzir análises de sentimentos em correspondências por e-mail ou chats no aplicativo entre membros da equipe. Como alternativa, eles podem integrar seu algoritmo em seu sistema de vigilância ou visão computacional. Os usuários podem rastrear o humor para calcular métricas como risco de rotatividade, taxa de esgotamento e satisfação do funcionário.

Auxiliando agentes de atendimento ao cliente

Os varejistas podem usar agentes de atendimento ao cliente de IA interna para usuários finais ou assistentes virtuais para resolver situações de alto estresse. Como seu modelo pode reconhecer o humor, ele pode sugerir técnicas de desescalada ou mudar seu tom quando percebe que um consumidor está ficando bravo. Contramedidas como essas podem melhorar a satisfação e a retenção do cliente.

Ajudando os alunos na sala de aula

Educadores podem usar essa IA para evitar que alunos remotos fiquem para trás. Uma startup já usou sua ferramenta para medir pontos musculares nos rostos dos alunos enquanto catalogava sua velocidade e notas. Esse método determina seu humor, motivação, pontos fortes e fracos. O fundador da startup afirmam que pontuam 10% mais alto em testes ao usar o software program.

Realização de pesquisa de mercado interna

As empresas podem conduzir pesquisas de mercado internas usando um modelo de reconhecimento de emoções. Isso pode ajudá-las a entender exatamente como seu público-alvo reage ao seu produto, serviço ou materials de advertising and marketing, dando a elas insights valiosos baseados em dados. Como resultado, elas podem acelerar o tempo de colocação no mercado e aumentar sua receita.

O problema de usar IA para detectar emoções

Pesquisas sugerem que a precisão é altamente dependente de informações de treinamento. Um grupo de pesquisa — tentando decifrar sentimentos de imagens — provou esse conceito de forma anedótica quando seu modelo alcançou uma precisão de 92,05% no conjunto de dados de Expressão Facial Feminina Japonesa e uma precisão de 98,13% no conjunto de dados Cohn-Kanade Estendido.

Embora a diferença entre 92% e 98% possa parecer insignificante, ela importa — essa ligeira discrepância pode ter ramificações substanciais. Para referência, uma taxa de envenenamento de conjunto de dados tão baixo quanto 0,001% provou ser eficaz em estabelecer backdoors de modelo ou causar intencionalmente classificações erradas. Mesmo uma fração de uma porcentagem é significativa.

Além disso, embora os estudos pareçam promissores — taxas de precisão acima de 90% mostram potencial — os pesquisadores os conduzem em ambientes controlados. No mundo actual, imagens borradas, expressões faciais falsas, ângulos ruins e sentimentos sutis são muito mais comuns. Em outras palavras, a IA pode não ser capaz de executar de forma consistente.

O estado atual da IA ​​de reconhecimento de emoções

Análise de sentimento algorítmica é o processo de usar um algoritmo para determinar se o tom do texto é positivo, neutro ou negativo. Essa tecnologia é, sem dúvida, a base para modelos modernos de detecção de emoções, pois abriu caminho para avaliações de humor algorítmicas. Tecnologias semelhantes, como software program de reconhecimento facial, também contribuíram para o progresso.

Os algoritmos de hoje podem detectar principalmente apenas estados de ânimo simples como felicidade, tristeza, raiva, medo e surpresa com vários graus de precisão. Essas expressões faciais são inatas e universais — o que significa que são naturais e globalmente compreendidas — então treinar uma IA para identificá-las é relativamente simples.

Além disso, expressões faciais básicas são frequentemente exageradas. As pessoas franzem as sobrancelhas quando estão com raiva, franzem a testa quando estão tristes, sorriem quando estão felizes e arregalam os olhos quando estão chocadas. Esses olhares simplistas e dramáticos são fáceis de diferenciar. Emoções mais complexas são mais desafiadoras de identificar porque são sutis ou combinam semblantes básicos.

Como esse subconjunto de IA permanece em grande parte em pesquisa e desenvolvimento, ele não progrediu para cobrir sentimentos complexos como desejo, vergonha, tristeza, ciúme, alívio ou confusão. Embora provavelmente cubra mais eventualmente, não há garantia de que será capaz de interpretar todos eles.

Na realidade, os algoritmos podem nunca ser capazes de competir com os humanos. Para referência, enquanto o conjunto de dados GPT-4 da OpenAI é aproximadamente 1 petabyteum único milímetro cúbico de um cérebro humano contém cerca de 1,4 petabytes de dados. Os neurocientistas não conseguem compreender completamente como o cérebro percebe as emoções, apesar de décadas de pesquisa, então construir uma IA altamente precisa pode ser impossível.

Embora o uso dessa tecnologia para reconhecimento de emoções tenha precedentes, esse campo ainda está tecnicamente em sua infância. Há uma abundância de pesquisas sobre o conceito, mas existem poucos exemplos reais de implantação em larga escala. Alguns sinais indicam que a adoção lenta pode resultar de preocupações sobre precisão inconsistente e questões éticas.

Considerações éticas para desenvolvedores de IA

De acordo com uma pesquisa, 67% dos entrevistados concordam A IA deve ser um pouco ou muito mais regulamentada. Para tranquilizar as pessoas, os desenvolvedores devem minimizar o viés, garantir que seus modelos se comportem conforme o esperado e melhorar os resultados. Essas soluções são possíveis se priorizarem considerações éticas durante o desenvolvimento.

1. Coleta e utilização consensual de dados

Consentimento é tudo em uma period em que a regulamentação da IA ​​está aumentando. O que acontece se os funcionários descobrirem que suas expressões faciais estão sendo catalogadas sem seu conhecimento? Os pais precisam assinar a análise de sentimentos baseada na educação ou os alunos podem decidir por si mesmos?

Os desenvolvedores devem divulgar explicitamente quais informações o modelo coletará, quando estará em operação, para que a análise será usada e quem pode acessar esses detalhes. Além disso, eles devem incluir recursos de opt-out para que os indivíduos possam personalizar as permissões.

2. Saída de análise de sentimento anonimizada

A anonimização de dados é tanto um problema de privacidade quanto de segurança. Os desenvolvedores devem anonimizar as informações emocionais que coletam para proteger os indivíduos envolvidos. No mínimo, eles devem considerar fortemente alavancar a criptografia em repouso.

3. Tomada de decisão com envolvimento humano

A única razão para usar IA para determinar o estado emocional de alguém é para informar a tomada de decisões. Como tal, seja usada em uma capacidade de saúde psychological ou em um ambiente de varejo, ela impactará as pessoas. Os desenvolvedores devem aproveitar as salvaguardas do humano no circuito para minimizar o comportamento inesperado.

4. Suggestions centrado no ser humano para saída de IA

Mesmo que um algoritmo tenha quase 100% de precisão, ele ainda produzirá falsos positivos. Considerando que não é incomum que modelos alcancem 50% ou 70% — e isso sem tocar em questões de viés ou alucinação — os desenvolvedores devem considerar implementar um sistema de suggestions.

As pessoas devem ser capazes de rever o que a IA diz sobre seu estado emocional e apelo se acreditarem que é falso. Embora tal sistema exija medidas de proteção e responsabilização, ele minimizaria impactos adversos decorrentes de resultados imprecisos.

As consequências de ignorar a ética

Considerações éticas devem ser uma prioridade para engenheiros de IA, desenvolvedores de machine studying e donos de negócios porque isso os afeta. Considerando que a opinião pública cada vez mais incerta e regulamentações mais rígidas estão em jogo, as consequências de ignorar a ética podem ser significativas.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button