“
OpenAI e Anthropic Concordam em Testar Modelos de IA Antes do Lançamento Público
As empresas de IA OpenAI e Anthropic anunciaram um acordo formal com o Instituto de Segurança de IA dos EUA que compartilharia acesso a modelos de IA para avaliações de segurança antes do lançamento público.
Na quinta-feira, o Instituto Nacional de Padrões e Tecnologia (NIST) anunciou que seu Instituto de Segurança de IA supervisionará \”pesquisa, teste e avaliação de segurança de IA\” com ambas as empresas. \”Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a gerenciar com responsabilidade o futuro da IA\”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA, no anúncio.
Não é segredo que a IA generativa apresenta riscos à segurança. Sua tendência a produzir imprecisões e desinformação, permitir comportamento prejudicial ou ilegal e perpetuar a discriminação e o viés é bem documentada neste momento. A OpenAI possui seus próprios testes de segurança internos, mas tem sido secreta sobre como seus modelos funcionam e em que são treinados. Esta é a primeira vez que a OpenAI abre acesso à escrutínio e responsabilização de terceiros. Altman e OpenAI têm sido francos sobre a necessidade de regulamentação e padronização da IA. Mas críticos dizem que a disposição de trabalhar com o governo é uma estratégia para garantir que a OpenAI seja regulamentada favoravelmente e elimine a concorrência.
\”Por muitos motivos, achamos importante que isso aconteça em nível nacional. Os EUA precisam continuar liderando!\” postou o CEO da OpenAI, Sam Altman, no X.
A colaboração formal com o NIST se baseia no decreto executivo de IA do governo Biden que foi assinado em outubro passado. Entre outras determinações que utilizaram várias agências federais para garantir a implantação segura e responsável da IA, o decreto exige que as empresas de IA concedam acesso ao NIST para red-teaming antes que um modelo de IA seja lançado para o público.
O anúncio também disse que compartilharia descobertas e feedback em parceria com o Instituto de Segurança de IA do Reino Unido.
“