Tech

OpenAI forma conselho de segurança e treina modelo de IA de última geração em meio a controvérsias

A OpenAI fez avanços significativos no avanço das tecnologias de inteligência synthetic, sendo sua conquista mais recente o sistema GPT-4o que alimenta o fashionable chatbot ChatGPT. Hoje, a OpenAI anunciou a criação de um novo comitê de segurança, o OpenAI Security Council, e revelou que começou a treinar um novo modelo de IA.

Quem faz parte do Conselho de Segurança da OpenAI?

O recém-formado OpenAI Security Council visa fornecer orientação e supervisão sobre decisões críticas de segurança e proteção relacionadas aos projetos e operações da empresa. O objetivo principal do conselho é garantir que as práticas de desenvolvimento de IA da OpenAI priorizem a segurança e estejam alinhadas com os princípios éticos. O comitê de segurança compreende um grupo diversificado de indivíduos, incluindo executivos da OpenAI, membros do conselho e especialistas técnicos e políticos.

Membros notáveis ​​do Conselho de Segurança OpenAI incluem:

  • Sam AltmanCEO da OpenAI
  • Bret Taylorpresidente da OpenAI
  • Adam D’AngeloCEO da Quora e membro do conselho da OpenAI
  • Nicole Seligmanex-conselheiro geral da Sony e membro do conselho da OpenAI

Na sua fase inicial, o novo comité de segurança e proteção concentrar-se-á na avaliação e fortalecimento dos processos e salvaguardas de segurança existentes da OpenAI. O OpenAI Security Council estabeleceu um cronograma de 90 dias para fornecer recomendações ao conselho sobre como melhorar as práticas de desenvolvimento de IA e os sistemas de segurança da empresa. Assim que as recomendações forem adotadas, a OpenAI planeja divulgá-las publicamente de maneira consistente com as considerações de segurança.

Treinamento do Novo Modelo de IA

Paralelamente ao estabelecimento do Conselho de Segurança OpenAI, a OpenAI anunciou que começou a treinar o seu próximo modelo de fronteira. Espera-se que este mais recente modelo de inteligência synthetic supere as capacidades do sistema GPT-4 que atualmente sustenta o ChatGPT. Embora os detalhes sobre o novo modelo de IA permaneçam escassos, a OpenAI afirmou que liderará a indústria tanto em capacidade como em segurança.

O desenvolvimento deste novo modelo de IA sublinha o ritmo rápido da inovação no campo da inteligência synthetic e o potencial da inteligência synthetic geral (AGI). À medida que os sistemas de IA se tornam mais avançados e poderosos, é essential dar prioridade à segurança e garantir que estas tecnologias são desenvolvidas de forma responsável.

Controvérsias e saídas recentes da OpenAI

O foco renovado da OpenAI na segurança ocorre em meio a um período de turbulência interna e escrutínio público. Nas últimas semanas, a empresa tem enfrentado críticas dentro das suas próprias fileiras, com o investigador Jan Leike a demitir-se e a expressar preocupações de que a segurança tenha ficado em segundo plano no desenvolvimento de “produtos brilhantes”. A renúncia de Leike foi seguida pela saída de Ilya Sutskever, cofundador e cientista-chefe da OpenAI.

As saídas de Leike e Sutskever levantaram questões sobre as prioridades da empresa e a sua abordagem à segurança da IA. Os dois pesquisadores lideraram conjuntamente a equipe de “superalinhamento” da OpenAI, que se dedicava a abordar os riscos de IA de longo prazo. Após as suas demissões, a equipa de superalinhamento foi dissolvida, alimentando ainda mais as preocupações sobre o compromisso da empresa com a segurança.

Além da agitação interna, a OpenAI também enfrentou alegações de falsificação de voz em seu chatbot ChatGPT. Alguns usuários afirmaram que a voz do chatbot tem uma notável semelhança com a da atriz Scarlett Johansson. Embora a OpenAI tenha negado ter se feito passar intencionalmente por Johansson, o incidente gerou uma conversa mais ampla sobre as implicações éticas do conteúdo gerado pela IA e o potencial de uso indevido.

Uma conversa mais ampla sobre ética em IA

À medida que o campo da inteligência synthetic continua a evoluir rapidamente, é essential que empresas como a OpenAI se envolvam num diálogo e colaboração contínuos com investigadores, decisores políticos e o público para garantir que as tecnologias de IA sejam desenvolvidas de forma responsável e com salvaguardas robustas em vigor. As recomendações apresentadas pelo Conselho de Segurança da OpenAI e o compromisso da OpenAI com a transparência contribuirão para uma conversa mais ampla sobre a governação da IA ​​e ajudarão a moldar o futuro desta tecnologia transformadora, mas só o tempo dirá o que resultará dela.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button