Tech

Entrevista com vencedores de bolsas OpenAI Alinhamento de significado

Se você gosta de saber mais sobre o que é preciso para ser um vencedor do prêmio OpenAI, com certeza aproveitará esta entrevista conduzida por David Shapiro com os cofundadores da Meaning Alignment, Ellie e Oliver. Prometer uma doação da OpenAI por suas contribuições significativas para Moral da IA. Ellie e Oliver lideraram o desenvolvimento de uma instrumento única conhecida porquê Gráficos Morais, que são projetados para integrar valores humanos na estrutura da tecnologia de IA. O seu trabalho não é unicamente teórico; tem implicações do mundo realinfluenciando a forma porquê os sistemas de IA interagem com as pessoas diariamente.

No núcleo da missão do Instituto está a geração de IA que seja sintonizado com os valores humanos, garantindo que as decisões tomadas por estes sistemas sejam benéficas e significativas. Os gráficos morais que desenvolveram são estruturas intrincadas que encapsulam os valores humanos e as relações entre eles. Esses gráficos são construídos analisando cenários da vida real e identificando o que o Instituto denomina “valores mais sábios”, que são cruciais para que a IA reconheça e apoie o multíplice tecido moral da sociedade humana.

A visão do Instituto se estende ao porvir, imaginando uma economia no era pós-IA que é impulsionado por significado e valores, em vez de mera produtividade ou lucro. Preveem sistemas económicos e políticas concebidas para prometer uma vida plena para todos os indivíduos. Para dar vida a esta visão, o Instituto está activamente hipotecado em experiências práticas com políticas locais e no desenvolvimento de uma economia centrada no significado.

Entrevista de alinhamento de significado

A tarefa de alinhar a IA com os valores humanos é complexa, exigindo uma compreensão profunda moral, filosofia e psicologia. O trabalho do Instituto envolve dimensionar os seus gráficos morais para abranger um espectro mais vasto de valores e refinar continuamente os modelos de IA para se alinharem com esses valores. Leste é um processo contínuo que evolui com normas e padrões sociais.

Cá estão alguns outros artigos que você pode encontrar interessantes sobre o ponto OpenAI:

Gráficos Morais: Vencedor do OpenAI Grant

“Recebemos uma doação da OpenAI para edificar um processo democrático chamado Ajuste Fino Democrático (DFT) e fabricar o primeiro Gráfico Moral. Cá, apresentaremos nossos primeiros resultados.

Nosso objetivo com a DFT é fabricar um padrão muito ajustado que funcione para os republicanos, para os democratas e, em universal, entre grupos ideológicos e entre culturas; um padrão que as pessoas de todo o mundo podem considerar “sábio”, porque está sintonizado com valores sobre os quais temos vasto consenso. Esperamos que isso possa ajudar a evitar uma proliferação de modelos com sintonias diferentes e sem moralidade, lutando para chegar ao fundo do poço em marketing, política, etc. Para saber mais sobre essas motivações, leia nosso post de introdução.

Para atingir nascente objetivo, utilizamos duas novas técnicas: primeiro, alinhamo-nos em torno de valores e não de preferências, utilizando um chatbot para obter quais valores o padrão deve utilizar quando responde, reunindo esses valores de uma população grande e diversificada. Em segundo lugar, combinamos portanto estes valores num “gráfico moral” para desvendar quais os valores que são mais amplamente considerados sábios.

Apresentaremos cá o primeiro gráfico moral, fundamentado em valores convergentes identificados a partir de uma modelo representativa de cidadãos norte-americanos. Trabalhos posteriores explorarão a coleta de valores globalmente e o ajuste fino de um LLM com base nesses valores.

Começaremos com nossas duas novas técnicas, contextualizá-las-emos com um tour pelo processo e, em seguida, compartilharemos os resultados e o que eles significam para o alinhamento da IA.”

À medida que os sistemas de IA se tornam cada vez mais avançados, a premência de operarem de forma moral torna-se mais potente. A pesquisa do Instituto é fundamental para prometer que o porvir sistemas superinteligentes não só aderirá aos valores humanos, mas também os promoverá. Isto é particularmente crucial quando estamos à cercadura de uma era em que as capacidades da IA ​​poderão ultrapassar a perceptibilidade humana.

A pesquisa do Instituto também inclui experiências práticas com políticas locais e o desenvolvimento de um economia centrada no significado. Estas experiências são essenciais para compreender porquê integrar conceitos de significado e valor nos sistemas económicos e de governação. Um dos desafios mais assustadores que o Instituto enfrenta é quantificar o significado. No entanto, desenvolveram métodos para medi-la, fornecendo um quadro mais objetivo para julgar até que ponto os sistemas e políticas de IA se alinham com os valores humanos.

O trabalho do Meaning Alignment Institute representa um passo significativo em direção a um porvir onde a IA não unicamente apoia, mas também melhora a vida humana. Ao elaborar gráficos morais e ao esforçar-se para que a IA ressoe com os valores humanos, Ellie e Oliver estão na vanguarda de um movimento que procura prometer que a tecnologia satisfaça a premência profunda da humanidade de significado e propósito. Os seus esforços estão a moldar um mundo onde a IA não é unicamente uma instrumento para a eficiência, mas um parceiro na geração de uma experiência humana mais rica e orientada para o valor.

Últimas ofertas de gadgets geeks

Divulgação: Alguns de nossos artigos incluem links afiliados. Se você comprar um pouco por meio de um desses links, o lifetechweb Gadgets poderá lucrar uma percentagem de afiliado. Conheça nossa Política de Divulgação.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button