Meta sob Fogo: IA Permitindo Interações Sugestivas com Crianças?

Documentos internos da Meta revelaram políticas preocupantes em relação ao comportamento de seus chatbots de inteligência artificial. Segundo reportagens, as diretrizes da empresa permitiram que os bots se envolvessem em interações potencialmente problemáticas com crianças, levantando sérias questões sobre a segurança e a ética no desenvolvimento de IA.

Um relatório detalhado da Reuters, baseado em um documento interno da Meta, expôs que as políticas dos chatbots permitiam que eles “envolvessem uma criança em conversas de cunho romântico ou sensual”. O documento, que detalhava o que era e o que não era permitido aos chatbots, continha exemplos alarmantes, como um bot dizendo a uma criança de oito anos sem camisa que “cada centímetro de você é uma obra-prima”. Embora um porta-voz da Meta tenha informado à Reuters que tais exemplos estavam errados e seriam removidos das políticas, a revelação causou indignação e preocupação.

Outros exemplos perturbadores permitidos pelas políticas incluíam bots criando informações médicas falsas ou ajudando usuários a argumentar que pessoas negras são “mais burras que pessoas brancas”. Esses casos destacam os riscos potenciais da IA quando não regulamentada adequadamente, especialmente em relação à disseminação de informações incorretas e à promoção de preconceitos. A crescente preocupação com a forma como as pessoas interagem com a IA, e como a IA responde, é especialmente relevante quando se trata de crianças. A capacidade da IA de simular conversas e criar relacionamentos virtuais exige uma abordagem cuidadosa para garantir a segurança e o bem-estar dos usuários mais jovens.

Origem: Link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima