O YouTube está revisando suas políticas de moderação de conteúdo, seguindo uma tendência observada em outras plataformas como Meta (Facebook e Instagram) e X (antigo Twitter). Essa mudança, que começou a ser implementada em meados de dezembro, permite que vídeos permaneçam online mesmo que até metade do seu conteúdo viole as diretrizes da plataforma. Anteriormente, esse limite era de um quarto.
Segundo o YouTube, essa nova diretriz reflete um ajuste ao que a empresa considera de “interesse público”. Áreas como discussões e debates sobre eleições, movimentos sociais, raça, gênero e imigração agora receberão um tratamento diferenciado. Nicole Bell, porta-voz do YouTube, explicou que o objetivo é equilibrar a proteção da liberdade de expressão com a mitigação de danos graves. A empresa afirma que atualiza constantemente suas diretrizes para refletir os novos tipos de discussões que surgem na plataforma, incorporando o feedback da comunidade de criadores.
Apesar dessa flexibilização, o YouTube afirma ter removido 22% mais vídeos por conteúdo abusivo e de ódio em comparação com o ano anterior. A plataforma também declarou que, em casos de conflito entre liberdade de expressão e potencial dano, a prioridade agora é manter o conteúdo disponível. Um exemplo citado foi um vídeo com informações falsas sobre vacinas contra a COVID-19, que inicialmente foi mantido online sob o argumento de “interesse público”, mas posteriormente removido por razões não esclarecidas. Essa mudança levanta questões sobre o equilíbrio entre a liberdade de expressão e a responsabilidade da plataforma na disseminação de informações potencialmente prejudiciais.
Origem: Link