“OpenAI e Anthropic concordam em compartilhar seus modelos com o Instituto de Segurança de IA dos EUA”

OpenAI e Anthropic concordam em compartilhar seus modelos com o Instituto de Segurança de IA dos EUA

OpenAI e Anthropic concordaram em compartilhar modelos de IA – antes e depois do lançamento – com o Instituto de Segurança de IA dos EUA. A agência, estabelecida por meio de uma ordem executiva do Presidente Biden em 2023, oferecerá feedback de segurança às empresas para melhorar seus modelos. O CEO da OpenAI, Sam Altman, deu a entender o acordo no início deste mês.

O Instituto de Segurança de IA dos EUA não mencionou outras empresas que trabalham com IA. Mas em uma declaração ao Engadget, um porta-voz do Google disse ao Engadget que a empresa está em discussões com a agência e compartilhará mais informações quando estiverem disponíveis. Esta semana, o Google começou a lançar modelos atualizados de chatbot e gerador de imagens para o Gemini.

“A segurança é essencial para impulsionar a inovação tecnológica inovadora. Com esses acordos em vigor, esperamos iniciar nossas colaborações técnicas com a Anthropic e a OpenAI para avançar a ciência da segurança de IA”, escreveu Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA, em uma declaração. “Esses acordos são apenas o começo, mas são um marco importante em nosso trabalho para ajudar a administrar responsavelmente o futuro da IA.”

O Instituto de Segurança de IA dos EUA faz parte do Instituto Nacional de Padrões e Tecnologia (NIST). Ele cria e publica diretrizes, testes de referência e melhores práticas para testar e avaliar sistemas de IA potencialmente perigosos. “Assim como a IA tem o potencial de fazer um bem profundo, também tem o potencial de causar danos profundos, desde ataques cibernéticos habilitados por IA em uma escala além de tudo que já vimos antes até armas biológicas formuladas por IA que poderiam colocar em risco a vida de milhões”, disse a Vice-Presidente Kamala Harris em final de 2023 depois que a agência foi criada.

O acordo inédito é feito por meio de um Memorando de Entendimento (formal, mas não vinculativo). A agência receberá acesso aos “principais novos modelos” de cada empresa antes e após seu lançamento público. A agência descreve os acordos como pesquisa colaborativa de mitigação de riscos que avaliará capacidades e segurança. O Instituto de Segurança de IA dos EUA também colaborará com o Instituto de Segurança de IA do Reino Unido.

Isso ocorre quando reguladores federais e estaduais tentam estabelecer salvaguardas para a IA enquanto a tecnologia em rápido avanço ainda está em sua infância. Na quarta-feira, a Assembleia Estadual da Califórnia aprovou um projeto de lei de segurança de IA (SB 10147) que exige testes de segurança para modelos de IA que custam mais de US$ 100 milhões para desenvolver ou exigem uma quantidade definida de poder de computação. O projeto de lei exige que as empresas de IA tenham interruptores de segurança que podem desligar os modelos se eles se tornarem “descontrolados ou incontroláveis”.

Ao contrário do acordo não vinculativo com o governo federal, o projeto de lei da Califórnia teria algum poder de execução. Permite que o procurador-geral do estado processe se os desenvolvedores de IA não cumprirem, especialmente durante eventos de nível de ameaça. No entanto, ainda exige mais uma votação de processo – e a assinatura do governador Gavin Newsom, que terá até 30 de setembro para decidir se dá o sinal verde.

Atualização, 29 de agosto de 2024, 17:53 ET: Esta história foi atualizada para incluir uma resposta de um porta-voz do Google.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima