“
Como detectar texto gerado por IA
Com o conteúdo gerado por IA se tornando mais comum em nosso dia a dia, você pode estar se perguntando: \”Como identifico um texto gerado por IA?\” Não é surpresa que esses modelos fiquem mais difíceis de detectar à medida que a tecnologia de IA evolui. Por enquanto, a boa notícia é que conteúdos como imagens e vídeos não são tão difíceis de analisar com o olho humano.
Se você é professor ou apenas um internauta experiente, qual o segredo para identificar textos gerados por IA? Bem, é mais simples do que você imagina: use seus olhos. Existem maneiras de treinar o olho humano para discernir declarações de IA. Especialistas escrevem que a \”magia\” dessas máquinas \”reside na ilusão de correção\”.
Nenhuma pessoa escreve da mesma maneira, mas existem padrões comuns. Se você já trabalhou em uma empresa, sabe como todos usam as mesmas frases genéricas ao redigir memorandos para seus chefes. É por isso que os detectores de texto de IA costumam sinalizar o conteúdo como \”provavelmente gerado por IA\” – porque distinguir entre um estilo de escrita humano sem graça e uma voz genérica gerada por IA é quase impossível.
Portanto, aqui estão algumas dicas e truques para identificar um texto potencialmente gerado por IA:
- Observe o uso frequente de palavras como \”o\”, \”a\”, \”ele\”, \”ela\” e suas variações.
- Ausência de erros de digitação – o texto de IA costuma ser perfeito demais.
- Declarações conclusivas que resumem perfeitamente os parágrafos.
- Escrita excessivamente prolixa ou com preenchimento.
- Informações ou fontes falsas ou fabricadas.
- Um tom mais avançado do que as submissões habituais do escritor.
- Frases repetitivas ou gramática estranhamente polida.
Existem também detectores de texto de IA no mercado que você pode usar, mas aqui está o motivo pelo qual, na minha experiência, eles são provavelmente menos confiáveis do que seus próprios olhos.
Detectores de texto de IA: Por que não são confiáveis
Não é só desgraça e tristeza, pois existem algumas soluções para nossos senhores máquinas. O lançamento de modelos como o ChatGPT e concorrentes como o Gemini e Claude impulsionou o crescimento de uma indústria artesanal focada na detecção de texto de IA. Plataformas como o ZeroGPT surgiram em resposta ao modelo de linguagem da OpenAI, enquanto ferramentas como o Grammarly e o Copyleaks – originalmente projetadas para detectar plágio – também se adaptaram para lidar com conteúdo gerado por IA.
Dependendo de quem você pergunta, a detecção de texto de IA é, no momento, a melhor maneira de detectar conteúdo gerado por IA ou sua pílula mágica digital. Na realidade, a segunda opção pode estar mais próxima da verdade. Nenhum detector de IA é 100% preciso (ou mesmo 99%, como muitos afirmam). Mesmo em condições ideais, a confiabilidade dessas ferramentas costuma ser imprevisível.
\”O problema aqui é que os modelos estão se tornando cada vez mais fluentes, [como resultado], os detectores mais antigos param de funcionar\”, diz Junfeng Yang, professor e codiretor do Software Systems Lab da Columbia University. Ele explica que, à medida que o texto gerado por IA se torna cada vez mais sofisticado, ele \”começa a usar vocabulário e estruturas de frases que imitam de perto a escrita humana, tornando mais difícil de detectar mesmo com detectores avançados\”.
Testando a precisão dos detectores de texto de IA
Apesar das grandes promessas de ferramentas como GPTZero ou Hive Moderation, enganar um detector de IA para rotular conteúdo escrito por humanos como feito por máquina é surpreendentemente simples. Esses sistemas normalmente analisam linhas de texto que explicam ou resumem ideias, o que os torna vulneráveis a falsos positivos. Por exemplo, testei um resumo básico de Game of Thrones que eu havia escrito apressadamente de memória em várias dessas ferramentas, e em quase todos os casos, foi sinalizado como \”provavelmente gerado por IA\”.
Então, peguei esse mesmo resumo de Game of Thrones, o inseri no ChatGPT e pedi que ele melhorasse a escrita – tornando-a mais longa e menos direta. Os resultados dos meus testes tiveram resultados variados. Um dos primeiros que testei foi o Scribbr, que classificou meu resumo original como \”100% provavelmente gerado por IA\”. Mas quando o troquei pela versão aprimorada pela IA, o Scribbr surpreendentemente reduziu a probabilidade para apenas 48%.
Outra ferramenta que tentei foi o Winston AI, que sinalizou o texto original como 39% de probabilidade de ser gerado pelo GPT-4. Ironicamente, quando se tratou do resumo real do GPT-4, ele deu apenas uma probabilidade insignificante de 1%.
O Hive Moderation errou completamente ao analisar meu trabalho, deixando de sinalizar qualquer um dos resumos que enviei. De acordo com o sistema, ambos foram rotulados com confiança como conteúdo escrito por humanos.
Agora, se eu apenas pedir ao ChatGPT um parágrafo aleatório sobre qualquer assunto e copiar e colar isso em vários detectores de texto, ele quase sempre será sinalizado imediatamente como gerado por IA. Mas isso na verdade reforça o problema: sem instruções específicas, o estilo de escrita padrão do ChatGPT costuma ser insosso, formulaico e objetivamente direto.
O tom previsivelmente maçante é o que aciona esses falsos positivos – não alguma tecnologia interna avançada que esses sites afirmam ter para discernir conteúdo de IA de humanos. Mesmo quando ferramentas como Originality marcaram corretamente as duas instâncias de escrita de IA, um pouco de ajuste de frase pode mudar completamente o resultado. Com apenas um pequeno paráfrase, o que antes era sinalizado com \”100% de confiança\” como gerado por IA pode de repente ser rotulado como \”Provavelmente original\”.
Dito isso, aqui está a lista de ferramentas de detecção de texto de IA disponíveis gratuitamente que testei usando o método acima. Para variar, também usei algumas revisões de literatura de artigos acadêmicos que escrevi na pós-graduação para ver se eles me sinalizariam por usar escrita rebuscada para aumentar minha contagem de palavras.
- GPTZero
- ZeroGPT
- Hive Moderation
- Scribbr
- CopyLeaks
- Originality.ai
- Grammarly
- GPT-2 Output Detector
- Writefull X
- Winston AI
Se sua escrita soar como um relatório de livro chato do 8º ano, os detectores de IA provavelmente o classificarão como um robô que precisa de um teste de Turing o mais rápido possível. Este teste mostra que simplesmente evitar certos padrões estruturais pode facilmente enganar os detectores de IA. E isso é uma grande dor de cabeça para as empresas por trás dessas ferramentas, especialmente porque muitas oferecem serviços de assinatura e visam vender suas APIs para escolas e empresas como uma solução B2B.
Embora essas ferramentas possam ser bastante eficazes para a detecção de plágio, é óbvio que sua capacidade de detectar texto gerado por IA ainda precisa de um aprimoramento sério. A inconsistência é difícil de ignorar – envie o mesmo texto para vários detectores e você obterá resultados radicalmente diferentes. O que é sinalizado como gerado por IA por uma ferramenta pode passar despercebido por outra. Dada essa falta de confiabilidade, é difícil recomendar qualquer uma dessas ferramentas com confiança agora.
Por que é tão difícil detectar texto gerado por IA?
A linguagem humana é incrivelmente volúvel e complexa – uma das principais razões pelas quais o texto gerado por IA é tão difícil de detectar.
Bamshad Mobasher, membro do IEEE e presidente do programa de IA na DePaul University, explica que \”o texto é o que esses modelos são treinados. Portanto, é mais fácil para eles imitarem conversas humanas\”.
\”As ferramentas de detecção procuram padrões – frases repetitivas, estruturas gramaticais muito regulares, coisas assim\”, disse Mobasher. \”Às vezes, é mais fácil para um humano detectar, como quando o texto é ‘perfeito demais’, mas ter certeza de que é gerado por IA é desafiador\”.
Ao contrário dos geradores de imagens, que podem produzir sinais reveladores como dedos extras ou traços faciais distorcidos, Mobasher explicou que os LLMs dependem de probabilidades estatísticas para gerar texto – fazendo com que sua saída pareça mais perfeita. Como resultado, detectar erros em texto gerado por IA – como frases matizadas ou irregularidades gramaticais sutis – é muito mais desafiador tanto para detectores quanto para leitores humanos.
É isso que torna o texto gerado por IA tão perigoso também. Mobasher alerta que \”fica mais fácil produzir e gerar desinformação em escala\”. Com os LLMs gerando texto fluente e polido que pode imitar vozes autoritárias, fica muito mais difícil para a pessoa média discernir entre fato e ficção.
\”Com a IA, é realmente muito mais fácil lançar esses ataques\”, diz Yang. \”Você pode tornar o e-mail muito fluente, transmitindo a mensagem que deseja e até incluindo informações personalizadas sobre o cargo ou missão do alvo em uma empresa\”.
Além de seu uso potencial indevido, o texto gerado por IA torna a internet pior. Os LLMs de empresas como OpenAI e Anthropic raspam dados publicamente disponíveis para treinar seus modelos. Então, os artigos gerados por IA que resultam desse processo são publicados online, apenas para serem raspados novamente em um ciclo sem fim.
Este ciclo de reciclagem de conteúdo reduz a qualidade geral das informações na web, criando um ciclo de feedback de material cada vez mais genérico e regurgitado que dificulta a busca de conteúdo autêntico e bem escrito.
Não há muito o que podemos fazer sobre a aceleração ultrarrápida da IA e seus efeitos prejudiciais ao conteúdo da internet, mas você pode, pelo menos, aproveitar seu conhecimento de alfabetização midiática para ajudá-lo a discernir o que é feito por humanos e o que é gerado por um robô.
\”Se você vir um artigo ou relatório, não acredite cegamente – procure fontes corroborantes, especialmente se algo parecer estranho\”, diz Yang.
“