Tech

Quando “Chatbot” é uma palavra suja: 3 equívocos que os líderes empresariais têm sobre a IA conversacional

A proliferação de LLMs como o ChatGPT da OpenAI, o Llama da Meta e o Claude da Anthropic levaram a um chatbot para cada ocasião. Existem chatbots para conselho de carreirachatbots que permitem que você fale com seu eu futuroe até mesmo um chatbot de frango que dá conselhos de culinária.

Mas esses não são os chatbots de dez anos atrás – naquela época, eles eram limitados a “conversas” rígidas e predefinidas, geralmente baseadas em um grande fluxograma com respostas de múltipla escolha ou equivalentes. Em essência, eles eram apenas um pouco mais sofisticados do que os menus telefônicos IVR pré-internet.

Os “chatbots” de hoje, por outro lado, estão se referindo mais frequentemente à IA conversacional, uma ferramenta com capacidades e casos de uso muito mais amplos. E porque agora nos encontramos no meio do ciclo de hype da IA ​​generativa, todos esses três termos estão sendo usados ​​de forma intercambiável. Infelizmente, como consequência, há muitos mal-entendidos em torno dos riscos, casos de uso e ROI de investir em IA conversacional entre líderes empresariais, especialmente em indústrias altamente regulamentadas como finanças.

Então, gostaria de esclarecer alguns mal-entendidos comuns sobre “chatbots”, quando o que realmente estamos discutindo é IA conversacional.

Mito 1: Os clientes odeiam chatbots

Durante a maior parte da última década, os consumidores foram questionados se preferiam agentes humanos ou chatbots — o que é como perguntar a alguém se ele prefere uma massagem profissional ou sentar em uma cadeira de massagem de procuring.

Mas a estreia do ChatGPT em 2022 (junto com todas as ferramentas que surgiram dele) virou nossa percepção das capacidades de um chatbot completamente de cabeça para baixo. Como mencionado acima, os chatbots mais antigos operavam em scripts, de modo que qualquer desvio de seus caminhos prescritos frequentemente levava à confusão e respostas ineficazes. Incapazes de entender o contexto e a intenção do usuário, as respostas dadas eram frequentemente genéricas e inúteis, e eles tinham capacidade limitada para coletar, armazenar e entregar informações.

Em contraste, a IA conversacional envolve as pessoas em conversas naturais que espelham a fala humana, permitindo uma troca mais fluida e intuitiva. Ela demonstra flexibilidade e adaptabilidade notáveis ​​a resultados inesperados. Ela é capaz de entender o contexto em torno da intenção do usuário, detectar emoções e responder empaticamente.

Esse nível mais profundo de entendimento permite que a IA de hoje navegue efetivamente os usuários por caminhos lógicos em direção aos seus objetivos. Isso inclui entregar rapidamente os clientes a assistentes humanos quando necessário. Além disso, a IA conversacional usa filtros de informações avançados, mecanismos de recuperação e a capacidade de reter dados relevantes, aprimorando significativamente suas habilidades de resolução de problemas, o que contribui para uma melhor experiência do usuário.

Então, não é que os clientes odeiem cegamente os chatbots, o que eles odeiam é o mau serviço, que as versões anteriores dos chatbots eram definitivamente culpadas de entregar. Os agentes de conversação de hoje são muito mais sofisticados que mais de um quarto dos consumidores não se sentem confiantes na sua capacidade de diferenciar entre agentes humanos e IA, e alguns até perceber chatbots de IA ser melhorar em tarefas selecionadas do que seus equivalentes humanos.

Em testes piloto, minha empresa viu agentes de IA triplicarem as taxas de conversão de leads, o que é uma indicação bastante forte de que não se trata de ser ou não um bot, mas sim da qualidade do trabalho realizado.

Mito 2: Chatbots são muito arriscados

Em discussões com líderes empresariais sobre IA, preocupações frequentemente surgem em torno de alucinações, proteção de dados e viés potencialmente levando a violações regulatórias. Embora sejam riscos legítimos, todos eles podem ser mitigados por meio de algumas abordagens diferentes: ajuste fino, Retrieval-Augmented Technology (RAG) e engenharia rápida.

Embora não esteja disponível em todos os LLMs, o ajuste fino pode especializar um modelo pré-treinado para uma tarefa ou domínio específico, resultando em uma IA mais adequada a necessidades específicas. Por exemplo, uma empresa de saúde pode ajustar um modelo para entender e responder melhor a consultas médicas.

O RAG aprimora a precisão do chatbot integrando dinamicamente conhecimento externo. Isso permite que o chatbot recupere informações atualizadas de bancos de dados externos. Por exemplo, um chatbot de serviços financeiros pode usar o RAG para fornecer respostas em tempo actual sobre preços de ações.

Por fim, a engenharia de immediate otimiza os LLMs ao elaborar prompts que orientam o chatbot a produzir respostas mais precisas ou com reconhecimento de contexto. Por exemplo, uma plataforma de e-commerce pode usar prompts personalizados para ajudar o chatbot a fornecer recomendações personalizadas de produtos com base nas preferências do cliente e no histórico de pesquisa.

Além de usar uma ou mais dessas abordagens, você também pode controlar a “temperatura” de criatividade de uma IA conversacional para ajudar a prevenir alucinações. Definir uma temperatura mais baixa dentro das chamadas de API limita a IA a fornecer respostas mais determinísticas e consistentes, especialmente quando combinada com uma base de conhecimento que garante que a IA extraia de conjuntos de dados especificados e confiáveis. Para mitigar ainda mais os riscos, evite implantar IA em funções de tomada de decisão onde viés ou desinformação podem levar a problemas legais.

Quanto à privacidade de dados, garanta que os provedores externos de IA cumpram as regulamentações ou implante modelos de código aberto em sua própria infraestrutura para manter controle complete sobre seus dados, essencial para a conformidade com o GDPR.

Por fim, é sempre sensato investir em seguro de responsabilidade civil profissional que pode oferecer proteção adicional, cobrindo empresas em cenários improváveis, como tentativa de litígio. Por meio dessas medidas, as empresas podem alavancar a IA com confiança, mantendo a segurança da marca e do cliente.

Mito 3: Os chatbots não estão prontos para tarefas complexas

Depois de ver os problemas que as grandes empresas de tecnologia estão tendo implantando ferramentas de IA, pode parecer ingênuo pensar que uma PME teria mais facilidade. Mas a IA está atualmente em um estágio em que a frase “pau para toda obra e mestre de nada” não é terrivelmente imprecisa. Isso ocorre em grande parte porque essas ferramentas estão sendo solicitadas a executar muitas tarefas diferentes em ambientes que ainda não foram projetados para implantação eficaz de IA. Em outras palavras, não é que elas não sejam capazes, é que estão sendo solicitadas a patinar em um lago cheio de gelo fino e fraturado.

Por exemplo, organizações repletas de dados isolados e/ou desorganizados serão mais propensas à IA trazer à tona informações desatualizadas, imprecisas ou conflitantes. Ironicamente, isso é uma consequência de sua complexidade! Enquanto os chatbots mais antigos estavam simplesmente regurgitando informações básicas de forma linear, a IA conversacional pode analisar conjuntos de dados robustos, considerando vários fatores influentes de uma só vez para traçar o caminho mais apropriado a seguir.

Consequentemente, o sucesso com a IA conversacional depende de parâmetros rigorosos e limites extremamente claros em relação a fontes de dados e tarefas. Com os dados de treinamento certos e prompts projetados por especialistas, a funcionalidade da IA ​​conversacional pode se estender muito além do escopo de um simples chatbot. Por exemplo, ela pode coletar e filtrar dados de conversas com clientes e usá-los para atualizar automaticamente um CRM. Isso não apenas simplifica as tarefas administrativas, mas também garante que as informações do cliente sejam consistentemente precisas e atualizadas. Ao automatizar essas tarefas, as empresas podem se concentrar mais em atividades estratégicas do que em encargos administrativos.

Se vamos continuar usando o termo “chatbot”, é imperativo que diferenciemos entre plataformas que estão incorporando IA conversacional de ponta e aquelas que ainda estão oferecendo as ferramentas limitadas de ontem. Da mesma forma que hoje a palavra “telefone” evoca mais frequentemente a imagem de um smartphone com tela sensível ao toque do que de um telefone fixo com fio espiral, acredito que não estamos longe de “chatbot” ser substituído pela ideia de agentes avançados de IA em vez de avatares desajeitados de múltipla escolha.

Unite AI Mobile Newsletter 1

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button