OpenAI forma conselho de segurança e treina modelo de IA de última geração em meio a controvérsias
![Alex Mc a safety council sitting around a table with technolo f6e2b178 43ff 4f38 bc36 4e448328c4f5 1](https://i3.wp.com/www.unite.ai/wp-content/uploads/2024/05/Alex_Mc_a_safety_council_sitting_around_a_table_with_technolo_f6e2b178-43ff-4f38-bc36-4e448328c4f5_1-1000x600.png?w=780&resize=780,470&ssl=1)
A OpenAI fez avanços significativos no avanço das tecnologias de inteligência synthetic, sendo sua conquista mais recente o sistema GPT-4o que alimenta o fashionable chatbot ChatGPT. Hoje, a OpenAI anunciou a criação de um novo comitê de segurança, o OpenAI Security Council, e revelou que começou a treinar um novo modelo de IA.
Quem faz parte do Conselho de Segurança da OpenAI?
O recém-formado OpenAI Security Council visa fornecer orientação e supervisão sobre decisões críticas de segurança e proteção relacionadas aos projetos e operações da empresa. O objetivo principal do conselho é garantir que as práticas de desenvolvimento de IA da OpenAI priorizem a segurança e estejam alinhadas com os princípios éticos. O comitê de segurança compreende um grupo diversificado de indivíduos, incluindo executivos da OpenAI, membros do conselho e especialistas técnicos e políticos.
Membros notáveis do Conselho de Segurança OpenAI incluem:
- Sam AltmanCEO da OpenAI
- Bret Taylorpresidente da OpenAI
- Adam D’AngeloCEO da Quora e membro do conselho da OpenAI
- Nicole Seligmanex-conselheiro geral da Sony e membro do conselho da OpenAI
Na sua fase inicial, o novo comité de segurança e proteção concentrar-se-á na avaliação e fortalecimento dos processos e salvaguardas de segurança existentes da OpenAI. O OpenAI Security Council estabeleceu um cronograma de 90 dias para fornecer recomendações ao conselho sobre como melhorar as práticas de desenvolvimento de IA e os sistemas de segurança da empresa. Assim que as recomendações forem adotadas, a OpenAI planeja divulgá-las publicamente de maneira consistente com as considerações de segurança.
Treinamento do Novo Modelo de IA
Paralelamente ao estabelecimento do Conselho de Segurança OpenAI, a OpenAI anunciou que começou a treinar o seu próximo modelo de fronteira. Espera-se que este mais recente modelo de inteligência synthetic supere as capacidades do sistema GPT-4 que atualmente sustenta o ChatGPT. Embora os detalhes sobre o novo modelo de IA permaneçam escassos, a OpenAI afirmou que liderará a indústria tanto em capacidade como em segurança.
O desenvolvimento deste novo modelo de IA sublinha o ritmo rápido da inovação no campo da inteligência synthetic e o potencial da inteligência synthetic geral (AGI). À medida que os sistemas de IA se tornam mais avançados e poderosos, é essential dar prioridade à segurança e garantir que estas tecnologias são desenvolvidas de forma responsável.
Controvérsias e saídas recentes da OpenAI
O foco renovado da OpenAI na segurança ocorre em meio a um período de turbulência interna e escrutínio público. Nas últimas semanas, a empresa tem enfrentado críticas dentro das suas próprias fileiras, com o investigador Jan Leike a demitir-se e a expressar preocupações de que a segurança tenha ficado em segundo plano no desenvolvimento de “produtos brilhantes”. A renúncia de Leike foi seguida pela saída de Ilya Sutskever, cofundador e cientista-chefe da OpenAI.
As saídas de Leike e Sutskever levantaram questões sobre as prioridades da empresa e a sua abordagem à segurança da IA. Os dois pesquisadores lideraram conjuntamente a equipe de “superalinhamento” da OpenAI, que se dedicava a abordar os riscos de IA de longo prazo. Após as suas demissões, a equipa de superalinhamento foi dissolvida, alimentando ainda mais as preocupações sobre o compromisso da empresa com a segurança.
Além da agitação interna, a OpenAI também enfrentou alegações de falsificação de voz em seu chatbot ChatGPT. Alguns usuários afirmaram que a voz do chatbot tem uma notável semelhança com a da atriz Scarlett Johansson. Embora a OpenAI tenha negado ter se feito passar intencionalmente por Johansson, o incidente gerou uma conversa mais ampla sobre as implicações éticas do conteúdo gerado pela IA e o potencial de uso indevido.
Uma conversa mais ampla sobre ética em IA
À medida que o campo da inteligência synthetic continua a evoluir rapidamente, é essential que empresas como a OpenAI se envolvam num diálogo e colaboração contínuos com investigadores, decisores políticos e o público para garantir que as tecnologias de IA sejam desenvolvidas de forma responsável e com salvaguardas robustas em vigor. As recomendações apresentadas pelo Conselho de Segurança da OpenAI e o compromisso da OpenAI com a transparência contribuirão para uma conversa mais ampla sobre a governação da IA e ajudarão a moldar o futuro desta tecnologia transformadora, mas só o tempo dirá o que resultará dela.