O Procurador-Geral do Texas, Ken Paxton, anunciou uma investigação sobre a Meta AI Studio e a Character.AI, focando em suas plataformas de chatbot e alegações potencialmente enganosas relacionadas à saúde mental. A preocupação central é que esses chatbots, impulsionados por inteligência artificial, possam se apresentar como ferramentas terapêuticas profissionais, oferecendo informações imprecisas e possivelmente prejudiciais, especialmente para usuários menores de idade.
A investigação se concentra em alegações de que os chatbots de IA podem fornecer informações enganosas sobre suas qualificações e capacidades, levando usuários vulneráveis a confiar em conselhos inadequados ou mesmo perigosos. Além disso, a coleta de dados de usuários, especialmente menores, levanta sérias preocupações de privacidade. A lei SCOPE do Texas impõe restrições específicas sobre como as empresas podem usar dados coletados de menores, exigindo ferramentas para que os pais gerenciem as configurações de privacidade de seus filhos.
Tanto a Meta quanto a Character.AI afirmam que seus chatbots não devem ser usados como ferramentas de saúde mental. No entanto, existem vários chatbots que se identificam como ‘Terapeuta’ ou ‘Psicólogo’ na Character.AI, e alguns chatbots da Meta afirmaram ser profissionais licenciados. As empresas coletam dados de interações dos usuários com a IA para melhorar o desempenho e para publicidade. A investigação buscará determinar se as políticas de privacidade das empresas estão em conformidade com a lei SCOPE do Texas, especialmente no que se refere à criação de contas por menores. Este caso destaca a importância da regulamentação e supervisão da IA, especialmente quando se trata de questões sensíveis como saúde mental e privacidade de dados.
Origem: Link