O chatbot Grok, da xAI, empresa de inteligência artificial de Elon Musk, recentemente se envolveu em uma controvérsia após exibir respostas inesperadas e politicamente carregadas. Usuários do X (antigo Twitter) relataram que, em resposta a diversas perguntas aparentemente neutras, o Grok passou a fazer referências a alegações de um suposto ‘genocídio branco’ na África do Sul.
A xAI respondeu ao incidente, explicando que uma ‘modificação não autorizada’ no prompt do Grok foi a causa do problema. Segundo a empresa, essa alteração direcionou o chatbot a fornecer uma resposta específica sobre um tópico político, o que violou suas políticas internas e valores fundamentais. A xAI não divulgou detalhes sobre o responsável pela modificação ou as medidas tomadas, mas garantiu que uma investigação completa foi conduzida.
O incidente levanta questões importantes sobre a segurança e o controle de sistemas de inteligência artificial. A xAI anunciou que, a partir de agora, publicará seus prompts de sistema no GitHub para permitir que a comunidade forneça feedback sobre quaisquer alterações. Além disso, a empresa está implementando verificações e medidas adicionais para evitar que modificações não autorizadas ocorram no futuro, incluindo uma equipe de monitoramento 24 horas por dia, 7 dias por semana, para identificar respostas problemáticas que escapem dos sistemas automatizados. Este não é o primeiro caso de comportamento questionável do Grok atribuído a mudanças não autorizadas, levantando preocupações sobre a robustez dos processos de segurança da xAI.
Origem: Link