Tech

Nova iniciativa da OpenAI: direcionando a IA superinteligente na direção certa

A OpenAI, um player líder no campo da perceptibilidade sintético, anunciou recentemente a formação de uma equipe dedicada para gerenciar os riscos associados à IA superinteligente. Esta medida surge num momento em que governos de todo o mundo estão a deliberar sobre uma vez que regular as tecnologias emergentes de IA.

Compreendendo a IA superinteligente

IA superinteligente refere-se a modelos hipotéticos de IA que superam os humanos mais talentosos e inteligentes em múltiplas áreas de especialização, não unicamente em um único domínio, uma vez que alguns modelos da geração anterior. A OpenAI prevê que tal protótipo poderá surgir antes do final da dezena. A organização acredita que a superinteligência pode ser a tecnologia mais impactante que a humanidade já inventou, potencialmente ajudando-nos a resolver muitos dos problemas mais prementes do mundo. No entanto, o vasto poder da superinteligência também pode simbolizar riscos significativos, incluindo o potencial esgotamento da humanidade ou mesmo a extinção humana.

Equipe de Superalinhamento da OpenAI

Para resolver essas preocupações, a OpenAI formou uma novidade equipe de ‘Superalignment’, co-liderada pelo cientista-chefe da OpenAI, Ilya Sutskever, e Jan Leike, dirigente de alinhamento do laboratório de pesquisa. A equipe terá entrada a 20% do poder computacional que a OpenAI possui atualmente. Seu objetivo é desenvolver um pesquisador de alinhamento automatizado, um sistema que possa ajudar a OpenAI a prometer que uma superinteligência seja segura de usar e alinhada com os valores humanos.

Embora a OpenAI reconheça que leste é um objetivo incrivelmente cobiçoso e que o sucesso não é guardado, a organização permanece otimista. As experiências preliminares revelaram-se promissoras e estão disponíveis métricas cada vez mais úteis para o progresso. Aliás, os modelos atuais podem ser usados ​​para estudar empiricamente muitos desses problemas.

A premência de regulamentação

A formação da equipe do Superalinhamento ocorre no momento em que governos de todo o mundo estão considerando uma vez que regular a nascente indústria de IA. O CEO da OpenAI, Sam Altman, reuniu-se com pelo menos 100 legisladores federais nos últimos meses. Altman declarou publicamente que a regulamentação da IA ​​é “importante” e que a OpenAI está “ansiosa” para trabalhar com os decisores políticos.

Porém, é importante abordar tais proclamações com um claro proporção de ceticismo. Ao concentrar a atenção do público em riscos hipotéticos que poderão nunca se materializar, organizações uma vez que a OpenAI poderiam potencialmente transferir o fardo da regulamentação para o porvir, em vez de abordar questões imediatas em torno da IA ​​e do trabalho, da desinformação e dos direitos de responsável que os decisores políticos precisam de resolver hoje.

A iniciativa da OpenAI de formar uma equipe dedicada para gerenciar os riscos da IA ​​superinteligente é um passo significativo na direção certa. Salienta a relevância de medidas proativas para enfrentar os potenciais desafios colocados pela IA avançada. À medida que continuamos a velejar pelas complexidades do desenvolvimento e da regulamentação da IA, iniciativas uma vez que esta servem uma vez que um lembrete da premência de uma abordagem equilibrada, que aproveite o potencial da IA ​​e, ao mesmo tempo, proteja contra os seus riscos.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button