A cantora , que recebeu alta de um em nesta segunda-feira (25) após passar por uma cirurgia de endometriose, teve seu nome ligado a um vídeo de deepfake, inteligência artificial que insere o rosto de uma pessoa em uma gravação.

O vídeo começou a circular nas redes sociais, inclusive em grupos de WhatsApp, há algumas semanas. As imagens mostram uma mulher fazendo sexo oral em um homem, e o rosto de Anitta foi colocado no lugar da pessoa.

Em nota à imprensa, a assessoria de Anitta negou que seja a cantora nas imagens. “Não se trata de Anitta, mas sim uma ação criminosa que utiliza de recursos digitais para enganar o público, fazendo uma inserção do rosto de uma pessoa em outra. Neste caso, muito mal feito, por sinal”, diz o comunicado.

O Bruno Sartori, que produz vídeos de deepfake, comentou sobre as imagens em seu Twitter: “Pessoal, tem circulando um vídeo pornográfico que usa deepfake para inserir o rosto de Anitta no lugar de outra mulher, e a gente sabe muito bem o motivo. Provavelmente é o primeiro conteúdo desse tipo a ganhar repercussão e que foi criado com a intenção de enganar e prejudicar.”

deepfake é uma tecnologia que usa inteligência artificial para criar vídeos falsos, mas realistas, de pessoas fazendo coisas que elas nunca fizeram na vida real.