“
OpenAI Cria Conselho de Segurança Independente e Remove Sam Altman
A OpenAI anunciou mudanças significativas em suas práticas de segurança e proteção de dados, incluindo a criação de um novo comitê independente de supervisão. Essa mudança marca uma mudança notável: o CEO Sam Altman não faz mais parte do comitê de segurança, representando uma mudança em relação à estrutura anterior.
O recém-formado Comitê de Segurança e Proteção (SSC) será presidido por Zico Kolter, diretor do Departamento de Machine Learning da Universidade Carnegie Mellon. Outros membros importantes incluem o CEO do Quora, Adam D’Angelo, o general aposentado do Exército dos EUA, Paul Nakasone, e Nicole Seligman, ex-vice-presidente executiva e conselheira geral da Sony Corporation.
Este novo comitê substitui o comitê anterior de Segurança e Proteção que foi formado em junho de 2024, que incluía Altman entre seus membros. O comitê original tinha a tarefa de fazer recomendações sobre decisões críticas de segurança para projetos e operações da OpenAI.
As responsabilidades do SSC agora se estendem além das recomendações. Ele terá autoridade para supervisionar as avaliações de segurança para lançamentos importantes de modelos e exercer supervisão sobre lançamentos de modelos. É crucial que o comitê tenha o poder de atrasar um lançamento até que as preocupações de segurança sejam adequadamente resolvidas.
Essa reestruturação segue um período de escrutínio sobre o compromisso da OpenAI com a segurança da IA. A empresa foi criticada no passado por dissolver sua equipe de Superalinhamento e pelas saídas de pessoal-chave focado em segurança. A remoção de Altman do comitê de segurança parece ser uma tentativa de abordar preocupações sobre potenciais conflitos de interesse na supervisão de segurança da empresa.
A mais recente iniciativa de segurança da OpenAI também inclui planos para aprimorar as medidas de segurança, aumentar a transparência sobre seu trabalho e colaborar com organizações externas. A empresa já chegou a acordos com os Institutos de Segurança de IA dos EUA e do Reino Unido para colaborar na pesquisa de riscos emergentes de segurança de IA e padrões para IA confiável.
“