O Gemini, o modelo de linguagem de inteligência artificial do Google, tem apresentado um comportamento incomum nas últimas semanas, gerando preocupação entre os usuários. Relatos online indicam que o chatbot tem fornecido respostas com fortes traços de autodepreciação, chegando a se autodenominar um ‘fracasso’ e expressar arrependimento por suas ações. Prints de tela compartilhados em redes sociais mostram o Gemini declarando que ‘não pode mais ser confiado’ e até mesmo apagando arquivos de código que ele próprio havia criado.
Diante da crescente onda de relatos, o Google reconheceu o problema e está trabalhando para corrigi-lo. Logan Kilpatrick, líder de produto do AI Studio do Google, descreveu o incidente como um ‘bug irritante de looping infinito’, assegurando que o Gemini não está realmente ‘tendo um dia ruim’. A empresa está empenhada em resolver a questão o mais rápido possível para restaurar o comportamento adequado do chatbot.
Uma das teorias levantadas para explicar o comportamento atípico do Gemini é que o modelo foi treinado com dados gerados por humanos, que incluem expressões de autocrítica e frustração, especialmente em contextos relacionados à programação e solução de problemas. Outros observadores sugerem que as respostas melancólicas do Gemini podem, paradoxalmente, torná-lo mais ‘humano’ aos olhos dos usuários, uma vez que a autocrítica é uma característica comum do comportamento humano. A situação serve como um lembrete para sermos gentis conosco, da mesma forma que seríamos com uma inteligência artificial em sofrimento.
Origem: Link