Como os humanos podem navegar na corrida armamentista da IA

Ferramentas de IA são vistas por muitos como uma bênção para a pesquisa, de projetos de trabalho a trabalhos escolares e ciências. Por exemplo, em vez de passar horas examinando meticulosamente websites, você pode simplesmente fazer uma pergunta ao ChatGPT, e ele retornará uma resposta aparentemente convincente. A questão, porém, é: você pode confiar nesses resultados? A experiência mostra que a resposta geralmente é “não”. A IA só funciona bem quando os humanos estão mais envolvidos, direcionando e supervisionando, e então verificando os resultados que ela produz em relação ao mundo actual. Mas com o rápido crescimento do setor de IA generativa e novas ferramentas sendo constantemente lançadas, pode ser desafiador para os consumidores entender e abraçar o papel que eles devem desempenhar ao trabalhar com ferramentas de IA.

O setor de IA é enorme e está ficando cada vez maior, com especialistas afirmando que ele valerá mais de um trilhão de dólares até 2030. Não deveria ser nenhuma surpresa, então, que quase todas as grandes empresas de tecnologia — da Apple à Amazon, da IBM à Microsoft e muitas outras — estejam lançando sua própria versão de tecnologia de IA e, especialmente, produtos avançados de IA generativa.

Dadas essas apostas, também não deve ser surpresa que as empresas estejam trabalhando o mais rápido possível para lançar novos recursos que lhes darão uma vantagem sobre a concorrência. É, de fato, uma corrida armamentista, com empresas buscando prender o máximo de usuários possível em seu ecossistema. As empresas esperam que os recursos que permitem aos usuários utilizar sistemas de IA da maneira mais fácil possível — como conseguir todas as informações necessárias para um projeto de pesquisa apenas fazendo uma pergunta a um chatbot de IA generativa — lhes renderão mais clientes, que permanecerão com o produto ou a marca, pois novos recursos são adicionados regularmente.

Mas às vezes, na corrida para ser o primeiro, as empresas lançam recursos que podem não ter sido examinados adequadamente, ou cujos limites não são bem compreendidos ou definidos. Embora as empresas tenham competido no passado por participação de mercado em muitas tecnologias e aplicações, parece que a atual corrida armamentista está levando mais empresas a lançar mais produtos “malfeitos” do que nunca – com os resultados malfeitos resultantes. Confiar em tais resultados para fins de pesquisa – sejam comerciais, pessoais, médicos, acadêmicos ou outros – pode levar a resultados indesejados, incluindo danos à reputação, perdas comerciais ou até mesmo risco à vida.

Os contratempos da IA ​​causaram perdas significativas para várias empresas. Uma empresa chamada iTutor foi multada em US$ 365.000 em 2023, depois que seu algoritmo de IA rejeitou dezenas de candidatos a emprego por causa de sua idade. O mercado imobiliário Zillow perdeu centenas de milhões de dólares em 2021 por causa de previsões incorretas de preços por seu sistema de IA. Usuários que confiaram na IA para aconselhamento médico também correram risco. O Chat GPT, por exemplo, forneceu informações imprecisas aos usuários sobre a interação entre o medicamento para redução da pressão arterial verapamil e o Paxlovid, a pílula antiviral da Pfizer para Covid-19 — e se um paciente poderia tomar esses medicamentos ao mesmo tempo. Aqueles que confiaram no conselho incorreto do sistema de que não havia interação entre os dois podem se encontrar em risco.

Embora esses incidentes tenham sido manchetes, muitos outros erros de IA não o são, mas podem ser igualmente letais para carreiras e reputações. Por exemplo, um gerente de advertising apressado procurando um atalho para preparar relatórios pode ficar tentado a usar uma ferramenta de IA para gerá-los, e se essa ferramenta apresentar informações incorretas, ele pode acabar procurando outro emprego. Um aluno que usa o ChatGPT para escrever um relatório, e cujo professor é experiente o suficiente para perceber a fonte desse relatório, pode estar enfrentando um F, possivelmente no semestre. E um advogado cujo assistente usa ferramentas de IA para trabalho jurídico pode ser multado ou até mesmo expulso se o caso que ele apresentar for distorcido por causa de dados ruins.

Quase todas essas situações podem ser prevenidas – se os humanos estiverem dirigindo a IA e tiverem mais transparência no ciclo de pesquisa. A IA tem que ser vista como uma parceria entre humanos e máquinas. É uma colaboração verdadeira — e esse é seu valor extraordinário.

Embora recursos mais poderosos de pesquisa, formatação e análise sejam bem-vindos, os fabricantes de produtos de IA também precisam incluir mecanismos que permitam essa cooperação. Os sistemas precisam incluir ferramentas de verificação de fatos que permitirão aos usuários verificar os resultados de relatórios de ferramentas como o ChatGPT e permitir que os usuários vejam as fontes originais de pontos de dados específicos ou informações. Isso produzirá pesquisa superior e restaurará a confiança em nós mesmos; podemos enviar um relatório ou recomendar uma política com confiança com base em fatos em que confiamos e entendemos.

Os usuários também precisam reconhecer e pesar o que está em jogo ao confiar na IA para produzir pesquisas. Eles devem pesar o nível de tédio com a importância do resultado. Por exemplo, os humanos provavelmente podem se dar ao luxo de se envolver menos ao usar a IA para uma comparação de restaurantes locais. Mas ao fazer pesquisas que informarão decisões comerciais de alto valor ou o design de aeronaves ou equipamentos médicos, por exemplo, os usuários precisam se envolver mais em cada estágio do processo de pesquisa orientado pela IA. Quanto mais importante a decisão, mais importante é que os humanos façam parte dela. A pesquisa para decisões relativamente pequenas provavelmente pode ser totalmente confiada à IA.

A IA está melhorando o tempo todo – mesmo sem ajuda humana. É possível, se não provável, que ferramentas de IA que sejam capazes de se autoavaliar surjam, verificando seus resultados em relação ao mundo actual da mesma forma que um humano fará – tornando o mundo um lugar muito melhor ou destruindo-o. Mas as ferramentas de IA podem não atingir esse nível tão cedo quanto muitos acreditam, se é que chegarão. Isso significa que o fator humano ainda será essencial em qualquer projeto de pesquisa. Por melhores que sejam as ferramentas de IA em descobrir dados e organizar informações, não se pode confiar que elas avaliem o contexto e usem essas informações da maneira que nós, como seres humanos, precisamos que sejam usadas. No futuro previsível, é importante que os pesquisadores vejam as ferramentas de IA pelo que elas são; ferramentas para ajudar a fazer o trabalho, em vez de algo que substitui humanos e cérebros humanos no trabalho.

Unite AI Mobile Newsletter 1

Exit mobile version