A OpenAI anunciou a formação de um Comité de Proteção e Segurança, liderado pelo CEO Sam Altman, enquanto inicia o treino do seu próximo modelo de inteligência artificial. Os diretores Bret Taylor, Adam D’Angelo e Nicole Seligman também farão parte do comité, conforme divulgado no blog da empresa.
Reestruturação e Novos Desafios
O ex-Cientista Chefe Ilya Sutskever e Jan Leike, que lideravam a equipa de superalinhamento da OpenAI, apoiada pela Microsoft (MSFT.O), deixaram a empresa no início deste mês. A equipa de superalinhamento, criada para garantir que a IA se mantivesse alinhada aos objetivos pretendidos, foi desmantelada em maio, menos de um ano após a sua criação. Alguns membros da equipa foram realocados para outros grupos, conforme relatado pela CNBC após as saídas de alto perfil.
O comité será responsável por fazer recomendações ao conselho sobre decisões de segurança e proteção para os projetos e operações da OpenAI. A sua primeira tarefa será avaliar e desenvolver ainda mais as práticas de segurança existentes da OpenAI nos próximos 90 dias, após os quais compartilhará recomendações com o conselho.
Após a revisão do conselho, a OpenAI divulgará publicamente uma atualização sobre as recomendações adotadas, informou a empresa. Outros membros do comité incluem os especialistas técnicos e de políticas da empresa Aleksander Madry, Lilian Weng e o chefe das ciências de alinhamento John Schulman. O recém-nomeado Cientista Chefe Jakub Pachocki e o chefe de segurança Matt Knight também farão parte do comité.
Com esta nova estrutura, a OpenAI pretende reforçar o seu compromisso com a segurança e proteção, enquanto avança no desenvolvimento do seu próximo modelo de inteligência artificial. A formação do Comité de Proteção e Segurança é um passo significativo para garantir que os futuros desenvolvimentos da IA estejam alinhados com os padrões éticos e de segurança mais elevados.