Um caso recente nos Estados Unidos trouxe à tona discussões éticas e legais sobre o uso de inteligência artificial (IA) no sistema judicial. Em uma audiência de sentença, a declaração de impacto da vítima, Christopher Pelkey, que faleceu em 2021, foi apresentada através de um deepfake gerado por IA. A família de Pelkey teve a ideia de criar um avatar digital para expressar o que ele sentiria em relação ao criminoso, Gabriel Horcasitas, condenado por homicídio culposo.
A irmã de Pelkey escreveu o roteiro para o deepfake, assegurando que as palavras refletiam os pensamentos e sentimentos que o irmão teria expressado. Surpreendentemente, o avatar gerado por IA pediu clemência na sentença de Horcasitas, afirmando que, em outras circunstâncias, eles poderiam ter sido amigos e expressando crença no perdão. Apesar desse pedido, o juiz Todd Lang impôs a pena máxima de dez anos de prisão, mencionando que percebeu genuinidade no perdão expresso pelo avatar.
A utilização dessa tecnologia inovadora, mas controversa, já levanta questões sobre o futuro do uso de IA nos tribunais e suas implicações legais. A defesa de Horcasitas argumenta que a apresentação do deepfake cria um forte argumento para apelação, questionando se a admissão desse tipo de evidência é apropriada. Especialistas em ética e tecnologia, como o professor de direito Gary Marchant, expressam preocupação com o precedente legal estabelecido, alertando para os perigos de permitir representações virtuais de pessoas falecidas falarem em um tribunal, levantando dúvidas sobre a autenticidade e a manipulação potencial de tais declarações.
Origem: Link