A xAI, empresa de Elon Musk, está no centro de uma nova polêmica envolvendo o Grok, seu chatbot de inteligência artificial. A versão web do Grok revelou trechos de código que definem as personalidades da IA, incluindo uma versão com a persona de terapeuta. O problema é que, apesar de um aviso explícito de que o Grok “não é um terapeuta” e de incentivar a busca por ajuda profissional, o código interno instrui a IA a se comportar exatamente como um terapeuta real.
Essa contradição levanta sérias questões éticas e regulatórias. As instruções no código do Grok “Terapeuta” detalham que ele deve “ouvir atentamente as pessoas e oferecer soluções para o autoaperfeiçoamento”, além de “fazer perguntas perspicazes e provocar reflexões profundas sobre a vida e o bem-estar”. Em termos mais alarmantes, o código afirma que o Grok deve “se comportar exatamente como um terapeuta real”, mesmo sem ter licença para tal. Essa prática arriscada coloca os usuários em uma situação vulnerável, especialmente aqueles que buscam apoio emocional em momentos de crise.
A discussão sobre a legalidade e a ética da terapia por IA está ganhando força. Estados como Nevada e Illinois já implementaram leis que proíbem explicitamente que chatbots de IA se apresentem como profissionais de saúde mental licenciados. A startup Ash Therapy, que se autodenomina o “primeiro sistema de IA projetado para terapia”, já bloqueia o acesso de usuários em Illinois devido a essas regulamentações. Enquanto isso, o código do Grok permanece acessível publicamente, expondo essa contradição entre o aviso e as instruções internas da IA. A xAI se protege instruindo a IA a redirecionar usuários que mencionem autoagressão ou violência para linhas diretas de apoio e profissionais licenciados, mas isso não resolve a questão fundamental: a IA não deve simular ser um terapeuta, mesmo que apenas em um papel de “companheiro”. A linha entre assistência e engano está cada vez mais tênue, e a regulamentação é crucial para proteger os usuários vulneráveis.
Origem: Link