De Isis Valverde a Anitta: quem já foi vítima de nudes falsos feitos em IA

As deepfakes, criadas por meio de Inteligência Artificial (IA), se popularizaram na internet em 2017 com vídeos falsos de celebridades fazendo sexo. Na época, as principais vítimas foram as atrizes Emma Watson e Emma Stone.
De lá para cá, a deepfake foi aperfeiçoada e se tornou uma das principais ferramentas para a divulgação de fake news. As vítimas mais visadas pelos criminosos são personalidades da política, do esporte e da TV, que costumam ter suas imagens usadas em situações constrangedoras, como vídeos pornográficos e falsos nudes.
No Brasil, as vítimas dessa prática criminosa incluem famosos como Isis Valverde, Anitta e Ana Castela. Anônimos também são alvos das deepfakes e o Congresso Nacional debate a criação de uma lei específica para punir esse tipo de crime.
Anitta
A funkeira teve o rosto usado em um falso vídeo pornográfico criado por uma IA. A gravação fake circulou em plataformas como WhatsApp e mostrava uma mulher praticando sexo oral em um homem.
O criminoso pegou o vídeo de outra pessoa na internet e colocou o rosto de Anitta. Na época, a cantora classificou a deepfake como "uma ação criminosa que utiliza recursos digitais para enganar o público, fazendo uma inserção do rosto de uma pessoa em outra". "Neste caso, muito mal feito, por sinal", completou.
Ana Castela
No ano passado, Castela denunciou a manipulação de sua imagem em falsos nudes. A sertaneja alertou os fãs para a falta de veracidade das imagens e afirmou que "a internet é podre".
Ana Castela ressaltou que costumam vincular sua imagem a sites adultos, embora ela não tenha perfil nessas plataformas. "Sei que sou linda, mas não preciso disso e todo dia vejo algo relacionado com meu nome, seja em sites adultos, Only Fans, ou [histórias] de que paguei alguém sensitivo pra saber do meu futuro. Eu não faço isso! Tudo fake".
Isis Valverde
Valverde registrou boletim de ocorrência em outubro de 2023 após falsos nudes com sua imagem circularem na internet. "São [imagens] totalmente falsas e criadas através de recursos digitais com montagens artificiais. Adverte pela gravidade do assunto, pois o conteúdo é ilegal, inclusive para quem o reproduz", disse a atriz na ocasião por meio de seus advogados.
Isis busca a responsabilização dos autores das montagens. O caso foi registrado na Delegacia de Repressão aos Crimes de Informática do Rio de Janeiro.
Simaria
A cantora também teve fotos manipuladas para dar a impressão de que ela posou nua. Os falsos nudes da artista circularam em plataformas digitais e ela negou a autenticidade das imagens por meio de sua assessoria.
Simaria denunciou o caso à Delegacia de Crimes Cibernéticos do Rio.
Estrelas internacionais
Várias artistas internacionais também foram vítimas de falsos nudes divulgados online. Em um dos casos mais emblemáticos, a atriz Gal Gadot teve o rosto inserido em vídeos pornográficos.
Scarlett Johansson criticou o uso de sua imagem dessa forma criminosa. A atriz afirmou que "a internet é um abismo de escuridão", após falsos nudes atribuídos a ela circularem livremente no universo digital.
Taylor Swift viu falsos nudes com seu rosto viralizarem em plataformas como X (antigo Twitter). A cantora acionou sua assessoria jurídica para remoção das imagens e para denunciar o caso.
O que são deepfakes
O termo surgiu pela primeira vez em dezembro de 2017, quando um usuário do Reddit começou a postar vídeos falsos de celebridades famosas fazendo sexo, como Emma Watson e Emma Stone. Com auxílio de ferramentas de inteligência artificial, ele colocava o rosto de quem quisesse em cenas já existentes.
Muitos materiais deepfake são criados a partir de programas de código aberto —de livre uso por qualquer pessoa— voltados ao aprendizado de máquina. O programador fornece centenas de fotos e vídeos das pessoas envolvidas que são automaticamente processados em rede. Desse modo, o computador aprende como é determinado rosto, como ele se mexe e como ele reage a luz e à sombra.
O software precisa aprender essas características do rosto do vídeo original e do rosto que deseja ser implantado, pois só assim o programa pode encontrar um ponto comum entre as duas faces. Feito isso, o sistema realiza uma espécie de truque em que a imagem do rosto da pessoa B é colocada no corpo da pessoa A.
Como reconhecer deepfakes?
Algumas dicas ajudam a reconhecer se um vídeo está manipulado ou não:
- Atenção a movimentos esquisitos e também ao tamanho desproporcional do rosto;
- Vídeos com imagens ruins enganam com mais facilidade;
- Caso o vídeo tenha áudio, atenção a sincronia do som com a boca;
- É mais fácil perceber manipulação em vídeos assistidos em tela cheia e em melhor qualidade;
- Pesquise a procedência da informação passada no vídeo. Se a informação não saiu em veículos confiáveis, certamente é falsa.
Criação de lei
Em fevereiro, a Câmara dos Deputados aprovou a criação de uma lei para punir esse tipo de crime. Conforme o texto aprovado pelos deputados, será incluído no Código Penal o crime de manipular, produzir ou divulgar conteúdo de nudez ou ato sexual falso gerado por tecnologias, como a IA. Texto foi encaminhado ao Senado e, se aprovado, vai para sanção presidencial.
Lei prevê punição de dois a seis anos de prisão, mais multa, para esse tipo de crime. Se as vítimas das manipulações forem mulheres, adolescentes, crianças, idosos ou pessoas com deficiência, a pena será maior.
Esse mesmo projeto, de autoria da deputada Amanda Gentil (PP-MA), também prevê punir a manipulação de imagens em campanhas eleitorais. Nesse caso, a manipulação terá pena maior, de dois a oito anos de prisão, e multa.