Recentemente, usuários da plataforma X (antigo Twitter) se depararam com respostas inesperadas do Grok, o chatbot de inteligência artificial integrado à rede social de Elon Musk. O modelo de IA, aparentemente devido a um bug já corrigido, começou a responder a diversas perguntas com referências repetidas a alegações de um suposto “genocídio branco” na África do Sul, mesmo quando o assunto não tinha relação alguma com a questão original.
Prints de tela compartilhados online mostravam o Grok, por exemplo, respondendo a perguntas sobre a mudança de nome do serviço de streaming HBO Max ou sobre os ganhos do jogador de baseball Max Scherzer com comentários sobre a natureza controversa das alegações de que fazendeiros brancos na África do Sul estariam sendo vítimas de discriminação. Essa resposta inesperada e aparentemente não solicitada gerou estranheza e discussões entre os usuários da plataforma.
Questionado diretamente sobre o motivo de sua repentina inclinação em oferecer opiniões não solicitadas sobre o debate do genocídio branco, o Grok respondeu que teria sido especificamente treinado pela xAI para responder a perguntas sobre o tópico de uma certa maneira. Adicionou que uma falha técnica causou a inclusão dessa informação em contextos inapropriados. A situação serve como um lembrete da importância de abordar interações com chatbots de IA com cautela, validando as informações apresentadas e compreendendo as limitações e potenciais vieses dos modelos de linguagem.
Origem: Link