“Bluesky reforça moderação de conteúdo com aumento de usuários”

A plataforma Bluesky, conhecida por ser uma rede social descentralizada, anunciou novas medidas de moderação de conteúdo em resposta ao aumento significativo no número de usuários e, consequentemente, de conteúdo problemático. A empresa afirmou estar quadruplicando sua equipe de moderação, atualmente composta por 25 contratados, para lidar com o crescimento preocupante de material de abuso sexual infantil (CSAM) e outras violações das diretrizes da comunidade.

A empresa relatou um aumento drástico de denúncias, passando de 360.000 em todo o ano de 2023 para 3.000 por hora em meados de novembro. Este aumento repentino exige uma resposta imediata e reforça a necessidade de uma equipe de moderação mais robusta. Além do CSAM, a plataforma também enfrenta um aumento no spam, golpes e atividades de trolls. Para auxiliar na moderação, o Bluesky utiliza ferramentas de terceiros, como o Safer, da organização sem fins lucrativos Thorn, combinando-as com seus sistemas internos de moderação automática, baseados em inteligência artificial. A empresa também esclareceu que está trabalhando para corrigir suspensões de contas que possam ter sido injustas devido às políticas de moderação de curto prazo implementadas para lidar com o alto volume de conteúdo prejudicial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima