Nos últimos anos, a manipulação de imagens, especialmente aquelas que envolvem a nudez de indivíduos, se tornou uma preocupação crescente. Esse fenômeno, denominado pornografia não consentida, refere-se à criação e disseminação de imagens íntimas alteradas digitalmente, retratando pessoas em contextos sexuais sem a sua autorização. Com o avanço das tecnologias, esse processo, que anteriormente era restrito a especialistas, tornou-se acessível a qualquer usuário da internet por meio de plataformas intuitivas.
Existem várias formas de conteúdo de pornografia não consentida. Entre elas, destaca-se a nudificação, que consiste na remoção digital das roupas de uma pessoa em uma fotografia. É possível, por exemplo, que uma imagem de uma premiação qualquer seja utilizada para criar um corpo nu a partir dela. Além disso, técnicas de deepfake permitem a troca do rosto de uma pessoa pelo de modelos em conteúdos adultos, utilizando inteligência artificial para gerar imagens extremamente realistas.
Um estudo realizado com 16 mil pessoas de dez países revelou que 2,2% dos entrevistados já haviam sido vítimas de deepfakes eróticos. Embora figuras públicas como Scarlett Johansson e Chris Evans fossem alvo de tais práticas no passado, atualmente qualquer pessoa pode se tornar vítima dessa manipulação. As mulheres e meninas são as mais afetadas, mas o problema pode impactar indivíduos de todos os gêneros.
A pornografia não consentida é uma questão significativa. Uma pesquisa realizada no Reino Unido indicou que uma em cada dez pessoas já foi vítima ou conhece alguém que passou por essa situação, e cerca de 50% dos entrevistados expressaram receio de que isso acontecesse com eles. Outro estudo internacional, envolvendo universidades da Austrália, dos Estados Unidos e do Reino Unido, constatou que 1,8% dos participantes admitiram ter criado ou compartilhado conteúdo de deepfake.
Embora esses números possam parecer modestos, a realidade é que muitos casos não são reportados, seja porque as vítimas não percebem ou por vergonha de denunciar. Além disso, com a crescente acessibilidade das tecnologias de IA, a tendência é que esses números aumentem.
Para se proteger desse tipo de abuso, uma abordagem individual de limitar a exposição na internet pode ser impraticável, especialmente em uma sociedade onde a visibilidade é frequentemente um requisito para oportunidades profissionais. Portanto, é imperativo que discussões sobre legislação e tecnologia avancem, criando soluções robustas que protejam as vítimas e responsabilizem os agressores.
A União Europeia tem investido em inteligência artificial para identificar deepfakes e imagens que foram manipuladas sem consentimento. No entanto, a eficácia dessa tecnologia enfrenta desafios constantes, uma vez que novos métodos de criação de deepfakes estão sempre surgindo. Assim, a implementação de soluções tecnológicas deve estar acompanhada de uma legislação que garanta a proteção das vítimas e respeite a privacidade dos cidadãos.
No Brasil, algumas iniciativas legais já estão em vigor. A Lei Rose Leonel (13.772/2018) aborda a divulgação de imagens íntimas sem consentimento, estabelecendo penas de reclusão que podem chegar a cinco anos. Além disso, o PL 3821/2024, atualmente em tramitação, criminaliza a manipulação e divulgação de conteúdo sexual falso gerado por meio de inteligência artificial, prevendo penas de dois a seis anos de reclusão, as quais podem ser aumentadas em situações específicas.
A dinâmica da tecnologia pode tanto ajudar quanto complicar a vida das pessoas. Portanto, é crucial que haja uma pressão contínua sobre governos, empresas e instituições para que as legislações e inovações andem em conjunto, mantendo o tema sempre na pauta pública.