A proliferação de conteúdo gerado por inteligência artificial (IA) no YouTube atingiu um novo patamar com a criação de vídeos falsos relacionados ao julgamento de Sean “Diddy” Combs. Canais estão utilizando miniaturas e narrações criadas por IA para atrair visualizações, muitas vezes associando celebridades ao caso de forma enganosa. Essa prática, apelidada de “Diddy slop”, explora a busca por informações sobre o julgamento, gerando desinformação e, em alguns casos, lucros substanciais.
Um relatório recente revelou que centenas de vídeos, espalhados por dezenas de canais, acumularam milhões de visualizações em um curto período. Esses vídeos frequentemente utilizam imagens reais do julgamento ou notícias locais, mas adicionam elementos falsos gerados por IA, como citações e conexões com celebridades que não têm relação com o caso. A facilidade de criação e distribuição de conteúdo com IA tem permitido que esses canais contornem as ferramentas de moderação das plataformas, incluindo o TikTok, amplificando a disseminação de desinformação.
Apesar das políticas do YouTube que proíbem a monetização de vídeos com conteúdo enganoso, muitos canais envolvidos na criação de “Diddy slop” conseguiram gerar receita significativa. Isso demonstra um desafio contínuo para as plataformas de vídeo em combater a disseminação de desinformação gerada por IA. Embora o YouTube tenha removido alguns canais e desmonetizado outros, a rápida proliferação desse tipo de conteúdo destaca a necessidade de ferramentas de moderação mais eficazes e de uma maior conscientização por parte dos usuários sobre os riscos da desinformação online. A plataforma também tem investido em IA para aprimorar suas ferramentas de busca e recomendação, buscando equilibrar a inovação com a responsabilidade na curadoria de conteúdo.
Origem: Link