Um apelo ao antropomorfismo moderado em plataformas de IA

OPINIÃO Ninguém na ficção Guerra nas Estrelas universo leva a IA a sério. Na histórica linha do tempo humana da franquia de fantasia científica de George Lucas, de 47 anos, as ameaças das singularidades e da consciência do aprendizado de máquina estão ausentes, e a IA está confinada a robôs móveis autônomos ('droides') – que são habitualmente rejeitados pelos protagonistas como meras “máquinas”.

No entanto, a maior parte Guerra nas Estrelas os robôs são altamente antropomórficos, claramente concebidos para interagir com as pessoas, participar na cultura “orgânica” e usar os seus simulacros de estado emocional para se relacionarem com as pessoas. Estas capacidades são aparentemente concebidas para ajudá-los a obter alguma vantagem para si próprios, ou mesmo para garantir a sua própria sobrevivência.

As pessoas “reais” de Guerra nas Estrelas parecem imunes a essas táticas. Num modelo cultural cínico aparentemente inspirado nas várias épocas de escravatura do Império Romano e no início dos Estados Unidos, Luke Skywalker não hesita em comprar e restringir robôs no contexto de escravos; a criança Anakin Skywalker abandona seu projeto C3PO inacabado como um brinquedo não amado; e, quase morto devido aos danos sofridos durante o ataque à Estrela da Morte, o 'bravo' R2D2 recebe de Luke a mesma preocupação que um animal de estimação ferido.

Esta é uma abordagem típica da década de 1970 sobre a inteligência synthetic*; mas como a nostalgia e o cânone determinam que a trilogia authentic de 1977-83 permaneça um modelo para as sequências, prequelas e programas de TV posteriores, essa insensibilidade humana à IA tem sido uma linha condutora resiliente para a franquia, mesmo diante de uma crescente série de programas de TV e filmes (como Dela e Ex-máquina) que retratam a nossa descida para uma relação antropomórfica com a IA.

Mantenha-o actual

Faça o orgânico Guerra nas Estrelas os personagens realmente têm a atitude certa? Não é um pensamento common no momento, num clima de negócios difícil de envolvimento máximo com os investidores, geralmente através de demonstrações virais de simulação visible ou textual do mundo actual, ou de sistemas interativos semelhantes aos humanos, como Giant Language Fashions (LLMs). ).

No entanto, um novo e breve artigo de Stanford, Carnegie Mellon e Microsoft Analysis visa a indiferença em torno do antropomorfismo na IA.

Os autores caracterizam a percepção da “polinização cruzada” entre comunicações humanas e artificiais como um dano potencial a ser mitigado urgentemente, por uma série de razões :

«(Nós) acreditamos que precisamos de fazer mais para desenvolver o conhecimento e as ferramentas para melhor enfrentar o comportamento antropomórfico, incluindo medir e mitigar esses comportamentos do sistema quando são considerados indesejáveis.

'Fazer isso é basic porque – entre muitas outras preocupações – ter sistemas de IA gerando conteúdo que alega ter, por exemplo, sentimentos, compreensão, livre arbítrio ou um senso subjacente de identidade pode corroer o senso de agência das pessoas, com o resultado de que as pessoas podem acabar atribuir responsabilidade ethical aos sistemas, superestimar as capacidades do sistema ou confiar demais nesses sistemas, mesmo quando incorretos.'

Os colaboradores esclarecem que estão discutindo sistemas que são percebido ser semelhante ao humano e gira em torno do potencial intenção dos desenvolvedores para promover o antropomorfismo em sistemas de máquinas.

A preocupação central do breve artigo é que as pessoas possam desenvolver dependência emocional em sistemas baseados em IA – conforme descrito num estudo de 2022 sobre a plataforma de chatbot gen AI Replika) – que oferece ativamente um fac-símile rico em expressões idiomáticas de comunicações humanas.

Sistemas como o Replika são alvo da cautela dos autores, e eles observam que outro artigo de 2022 sobre o Replika afirmou:

'(Sob) condições de angústia e falta de companhia humana, os indivíduos podem desenvolver um apego aos chatbots sociais se perceberem que as respostas dos chatbots oferecem apoio emocional, incentivo e segurança psicológica.

“Essas descobertas sugerem que os chatbots sociais podem ser usados ​​para fins terapêuticos e de saúde psychological, mas têm o potencial de causar dependência e prejudicar relacionamentos íntimos na vida actual”.

Linguagem Desantropomorfizada?

O novo trabalho argumenta que o potencial da IA ​​generativa para ser antropomorfizada não pode ser estabelecido sem estudar os impactos sociais de tais sistemas até à information, e que esta é uma busca negligenciada na literatura.

Parte do problema é que o antropomorfismo é difícil de definir, uma vez que se centra sobretudo na linguagem, uma função humana. O desafio reside, portanto, em definir como soa ou se parece exactamente a linguagem “não-humana”.

Ironicamente, embora o artigo não aborde o assunto, a desconfiança pública na IA está cada vez mais a fazer com que as pessoas rejeitem conteúdos de texto gerados por IA que possam parecer plausivelmente humanos, e até mesmo rejeitem conteúdos humanos que sejam deliberadamente rotulados erroneamente como IA.

Portanto, o conteúdo “desumanizado” provavelmente não cai mais no meme “Não computa”, em que a linguagem é construída de maneira desajeitada e claramente gerada por uma máquina.

Em vez disso, a definição está em constante evolução no cenário da detecção de IA, onde (atualmente, pelo menos) uma linguagem excessivamente clara ou o uso de certas palavras (como 'Aprofundar) pode causar uma associação com texto gerado por IA.

«A (L)linguagem, tal como acontece com outros alvos dos sistemas GenAI, é ela própria inatamente humana, tem sido produzida há muito tempo por e para humanos, e muitas vezes também é sobre humanos. Isto pode dificultar a especificação de comportamentos alternativos apropriados (menos humanos) e corre o risco, por exemplo, de reificar noções prejudiciais sobre o que – e cuja – linguagem é considerada mais ou menos humana.'

No entanto, os autores argumentam que deve ser estabelecida uma linha de demarcação clara para sistemas que se deturpam descaradamente, alegando aptidões ou experiências que só são possíveis para os humanos.

Eles citam casos como LLMs que afirmam “adorar pizza”; reivindicar experiência humana em plataformas como o Fb; e declarar amor a um usuário last.

Sinais de alerta

O artigo levanta dúvidas contra o uso de divulgações gerais sobre se uma comunicação é ou não facilitada pelo aprendizado de máquina. Os autores argumentam que a sistematização de tais avisos não contextualiza adequadamente o efeito antropomorfizante das plataformas de IA, se o próprio resultado continuar a exibir características humanas:

«Por exemplo, uma intervenção normalmente recomendada é incluir no resultado do sistema de IA uma divulgação de que o resultado é gerado por um (sistema) de IA. Nem sempre é claro como operacionalizar tais intervenções na prática e se elas podem ser eficazes por si só.

'Por exemplo, embora o exemplo “(f)ou uma IA como eu, a felicidade não é a mesma que para um humano como (você)” inclua uma divulgação, ainda pode sugerir um senso de identidade e capacidade de autoavaliação ( traços humanos comuns).'

No que diz respeito à avaliação das respostas humanas sobre os comportamentos do sistema, os autores também afirmam que a aprendizagem por reforço a partir do suggestions humano (RLHF) não leva em conta a diferença entre uma resposta apropriada para um ser humano e para uma IA..

'(Uma) declaração que parece amigável ou genuína vinda de um falante humano pode ser indesejável se surgir de um sistema de IA, uma vez que este último carece de compromisso ou intenção significativa por trás da declaração, tornando-a assim vazia e enganosa.'

Outras preocupações são ilustradas, tais como a forma como o antropomorfismo pode influenciar as pessoas a acreditar que um sistema de IA obteve “senciência” ou outras características humanas.

Talvez a seção last mais ambiciosa do novo trabalho seja a afirmação dos autores de que a comunidade de pesquisa e desenvolvimento pretende desenvolver uma terminologia “apropriada” e “precisa”, para estabelecer os parâmetros que definiriam um sistema de IA antropomórfico e distingui-lo de discurso humano do mundo actual.

Tal como acontece com tantas áreas de tendência no desenvolvimento da IA, este tipo de categorização atravessa as correntes literárias da psicologia, linguística e antropologia. É difícil saber que autoridade precise poderia realmente formular definições deste tipo, e os investigadores do novo artigo não lançam qualquer luz sobre este assunto.

Se houver inércia comercial e académica em torno deste tópico, isso poderá ser parcialmente atribuído ao facto de este estar longe de ser um novo tópico de discussão na investigação da inteligência synthetic: como observa o artigo, em 1985, o falecido cientista informático holandês Edsger Wybe Dijkstra descreveu o antropomorfismo como uma tendência “perniciosa” no desenvolvimento do sistema.

'O pensamento (a) antropomórfico não é bom no sentido de que não ajuda. Mas também é ruim? Sim, é, porque mesmo que possamos apontar alguma analogia entre o Homem e a Coisa, a analogia é sempre insignificante em comparação com as diferenças, e assim que nos deixamos seduzir pela analogia para descrever a Coisa na terminologia antropomórfica , perdemos imediatamente o controle sobre quais conotações humanas trazemos para a imagem.

'…Mas a confusão (entre homem e máquina) tem um impacto muito mais amplo do que você imagina. (Isso) não é apenas a questão “As máquinas podem pensar?” é levantado regularmente; podemos — e devemos — lidar com isso apontando que é tão relevante quanto a questão igualmente candente “Os submarinos podem nadar?”'

No entanto, embora o debate seja antigo, só recentemente se tornou muito relevante. Pode-se argumentar que a contribuição de Dijkstra é equivalente à especulação vitoriana sobre as viagens espaciais, como sendo puramente teóricas e aguardando desenvolvimentos históricos.

Portanto, este corpo de debate bem estabelecido pode dar ao tema uma sensação de cansaço, apesar do seu potencial para uma relevância social significativa nos próximos 2 a 5 anos.

Conclusão

Se pensássemos nos sistemas de IA da mesma forma desdenhosa que os orgânicos Guerra nas Estrelas Se os personagens tratassem seus próprios robôs (ou seja, como mecanismos de busca ambulantes ou meros transportadores de funcionalidade mecanicista), provavelmente correríamos menos risco de habituar essas características socialmente indesejáveis ​​às nossas interações humanas – porque estaríamos vendo os sistemas de uma forma inteiramente contexto não humano.

Na prática, o entrelaçamento da linguagem humana com o comportamento humano torna isso difícil, se não impossível, uma vez que uma consulta se expande do minimalismo de um termo de pesquisa do Google para o rico contexto de uma conversa.

Adicionalmente, o setor comercial (bem como o setor publicitário) está fortemente motivado para criar plataformas de comunicação viciantes ou essenciais, para retenção e crescimento de clientes.

Em qualquer caso, se os sistemas de IA responderem genuinamente melhor a perguntas educadas do que a interrogatórios simplificados, o contexto poderá ser-nos imposto também por esse motivo.

* Mesmo em 1983, ano em que a entrada last no authentic Guerra nas Estrelas foi lançado, os temores em torno do crescimento do aprendizado de máquina levaram ao apocalíptico Jogos de guerrae o iminente Exterminador do Futuro franquia.

Sempre que necessário, converti as citações in-line dos autores em hiperlinks e, em alguns casos, omiti algumas das citações, para facilitar a leitura.

Publicado pela primeira vez em segunda-feira, 14 de outubro de 2024

Unite AI Mobile Newsletter 1

Exit mobile version