A Meta, empresa controladora do Facebook, Instagram e WhatsApp, está planejando uma mudança significativa na forma como avalia os riscos associados aos seus produtos. Segundo um relatório recente, a empresa pretende aumentar drasticamente o uso de Inteligência Artificial (IA) nesse processo, diminuindo a dependência de revisores humanos. A meta ambiciosa é que a IA seja responsável por até 90% das avaliações de risco.
Essa transição para a IA na avaliação de riscos levanta algumas preocupações. Anteriormente, as atualizações e novos recursos passavam por revisões humanas antes de serem lançados ao público. Agora, as equipes de produto preenchem um questionário e o submetem ao sistema de IA, que geralmente fornece uma decisão instantânea, identificando as áreas de risco. Embora a Meta argumente que ainda utilizará expertise humana para questões complexas, ex-funcionários alertam que a IA pode não ser capaz de identificar riscos sutis que um revisor humano experiente perceberia. Áreas sensíveis como segurança infantil, combate à desinformação e conteúdo violento também seriam avaliadas pela IA.
A decisão da Meta de priorizar a IA nas avaliações de risco ocorre após mudanças nas políticas de moderação de conteúdo e verificação de fatos. Relatórios recentes indicam uma diminuição na quantidade de conteúdo removido das plataformas, juntamente com um pequeno aumento nos casos de bullying, assédio e conteúdo violento. Resta saber se a aposta na IA para avaliação de riscos será eficaz na proteção dos usuários e na manutenção da integridade das plataformas da Meta, ou se a redução da supervisão humana terá consequências negativas a longo prazo.
Origem: Link