A inteligência artificial, especialmente modelos de linguagem como o ChatGPT, continua a ser explorada para fins menos nobres. Recentemente, a OpenAI identificou e desmantelou operações de influência estrangeira que utilizavam sua ferramenta para disseminar propaganda e manipular o debate público online. Essas ações, originárias principalmente da China, mas também com rastros da Rússia, Irã e Coreia do Norte, visavam amplificar narrativas específicas em diversas plataformas.
As campanhas identificadas pela OpenAI se concentravam em criar posts e comentários em redes sociais como TikTok, Facebook, Reddit e X (antigo Twitter). Os temas variavam amplamente, desde a política interna dos EUA até videogames taiwaneses que retratavam conflitos com o Partido Comunista Chinês. O objetivo principal era semear discórdia e confusão, muitas vezes explorando tópicos controversos para polarizar a opinião pública e gerar engajamento em torno de informações enganosas. A sofisticação dessas operações reside na capacidade da IA de gerar conteúdo em grande escala, adaptando-se a diferentes contextos e públicos.
Apesar do uso da IA, especialistas apontam que a eficácia dessas campanhas em termos de engajamento não aumentou significativamente. Como Ben Nimmo, investigador da OpenAI, observou, melhores ferramentas não garantem necessariamente melhores resultados. No entanto, a acessibilidade crescente e o aprimoramento contínuo da IA generativa levantam preocupações sobre o futuro. A facilidade e o baixo custo para criar conteúdo persuasivo em massa podem tornar as campanhas de desinformação mais comuns e difíceis de detectar, mesmo que sua efetividade individual permaneça limitada. O desafio agora é desenvolver estratégias de detecção e combate que acompanhem a evolução da tecnologia e protejam a integridade do debate online.
Origem: Link