10 estados aprovaram legislação para criminalizar especificamente a criação ou disseminação de deepfakes. Indiana deverá em breve juntar-se à lista crescente ao expandir10 estados aprovaram legislação para criminalizar especificamente a criação ou disseminação de deepfakes. Indiana deverá em breve juntar-se à lista crescente ao expandir

Pornografia de IA Não Consensual Vai Fazer Vítimas de Todos Nós: Pode a Lei Acompanhar?

2025/12/20 05:43

Este artigo foi copublicado com The 19th, uma redação sem fins lucrativos que cobre género, política e políticas públicas. Inscreva-se na newsletter do The 19th aqui.

\ Mais de duas dezenas de estudantes da Westfield High School em Nova Jersey ficaram horrorizados no ano passado ao descobrirem que imagens nuas deles estavam a circular entre os seus colegas. Segundo a escola, alguns alunos tinham usado Inteligência Artificial (IA) para criar imagens pornográficas de outros a partir de fotografias originais. E não são apenas raparigas adolescentes a serem vitimizadas por fotografias falsas de nudez: estudantes no estado de Washington e no Canadá também relataram enfrentar situações semelhantes à medida que a capacidade de alterar fotografias de forma realista se torna mais amplamente acessível através de sites e aplicações.

\ O alarme crescente em torno de deepfakes—imagens ou vídeos gerados por IA—em geral foi ainda mais amplificado em janeiro, quando um envolvendo a superstar Taylor Swift se espalhou rapidamente pelas redes sociais.

\ Carrie Goldberg, uma advogada que tem representado vítimas de pornografia não consensual—vulgarmente referida como pornografia de vingança—há mais de uma década, disse que só começou a ouvir recentemente de vítimas de imagens geradas por computador.

\ "O meu escritório tem visto vítimas de deepfakes há provavelmente cerca de cinco anos, e tem sido principalmente celebridades," disse Goldberg. "Agora, está a tornar-se crianças a fazê-lo a crianças para serem más. Provavelmente está muito subnotificado porque as vítimas podem não saber que há recurso legal, e não é totalmente claro em todos os casos se há."

\ Os órgãos governamentais estão a tentar acompanhar. No último ano ou assim, 10 estados aprovaram legislação para criminalizar especificamente a criação ou disseminação de deepfakes. Estes estados—incluindo Califórnia, Florida, Geórgia, Havaí, Illinois, Minnesota, Nova Iorque, Dakota do Sul, Texas e Virgínia—delinearam penalidades que vão desde multas a penas de prisão. Indiana está prestes a juntar-se à lista crescente ao expandir a sua lei atual sobre pornografia não consensual.

\ A Deputada de Indiana Sharon Negele, republicana, foi a autora da expansão proposta. A lei existente define "pornografia de vingança" como divulgar uma imagem íntima, tal como qualquer uma que represente relações sexuais, genitais descobertos, nádegas ou o peito de uma mulher, sem o consentimento do indivíduo representado na imagem. O projeto de lei proposto por Negele passou pelas duas câmaras e está agora a aguardar a assinatura do governador.

\ Negele disse que foi motivada a atualizar o código criminal de Indiana quando ouviu a história de uma professora do ensino secundário que descobriu que alguns dos seus alunos tinham disseminado imagens deepfake dela. Foi "incrivelmente destrutivo" para a vida pessoal da professora, e Negele ficou surpreendida ao ver que os perpetradores não podiam ser processados sob a lei atual.

\ "Começou com a minha educação de compreender a tecnologia que está agora disponível e ler sobre incidente após incidente de rostos de pessoas a serem anexados a um corpo inventado que parece incrivelmente real e realista," disse Negele. "É simplesmente angustiante. Sendo mãe e avó e pensando no que poderia acontecer à minha família e a mim mesma—é chocante. Temos de nos antecipar a este tipo de coisas."

\ Goldberg, cujo escritório de advocacia é especializado em crimes sexuais, disse que antecipa que mais estados continuarão a expandir a sua legislação existente para incluir linguagem sobre IA.

\ "Há dez anos, apenas três estados tinham leis sobre pornografia de vingança ou abuso sexual baseado em imagens," disse Goldberg. "Agora, 48 estados proibiram a pornografia de vingança, e isso realmente criou uma redução tremenda na pornografia de vingança—sem surpresa—tal como nós defensores tínhamos dito que aconteceria. Toda a ascensão dos deepfakes preencheu as lacunas como sendo uma nova forma de humilhar sexualmente alguém."

\ Em 2023, mais de 143 000 novos vídeos gerados por IA foram publicados online, segundo a Associated Press. Isso é um enorme salto em relação a 2019, quando os sites ou aplicações "nudify" eram menos comuns, e ainda assim havia quase 15 000 destes vídeos falsos online, segundo um relatório da Deeptrace Labs, uma empresa de inteligência de ameaças visuais. Mesmo naquela altura, esses vídeos—96 por cento dos quais tinham pornografia não consensual de mulheres—tinham acumulado mais de 100 milhões de visualizações.

\ Goldberg disse que os decisores políticos e o público em geral parecem estar mais motivados para proibir imagens nuas geradas por IA especificamente porque virtualmente qualquer pessoa pode ser uma vítima. Há mais empatia.

\ "Com a pornografia de vingança, na primeira onda de discussões, todos estavam a culpar a vítima e a fazê-los parecer que eram algum tipo de pervertido por tirar a imagem ou estúpido por partilhá-la com outra pessoa," disse Goldberg. "Com deepfakes, não se pode realmente culpar a vítima porque a única coisa que fizeram foi ter um corpo."

\ Amanda Manyame, uma consultora de direitos digitais baseada na África do Sul para a Equality Now, uma organização internacional de direitos humanos focada em ajudar mulheres e raparigas, disse que praticamente não há proteções para vítimas de deepfakes nos Estados Unidos. Manyame estuda políticas e leis em todo o mundo, analisa o que está a funcionar e fornece aconselhamento jurídico sobre direitos digitais, particularmente sobre exploração e abuso sexual facilitados pela tecnologia.

\ "A maior lacuna é que os EUA não têm uma lei federal," disse Manyame. "O desafio é que a questão é governada estado por estado, e naturalmente, não há uniformidade ou coordenação quando se trata de proteções."

\ Há, no entanto, atualmente um esforço no Capitólio: um grupo bipartidário de senadores introduziu em janeiro a Lei de Interrupção de Imagens Explícitas Forjadas e Edições Não Consensuais de 2024—também conhecida como Lei DEFIANCE. A legislação proposta visa travar a proliferação de conteúdo sexualmente explícito não consensual.

\ "Ninguém—nem celebridades nem americanos comuns—deveria alguma vez encontrar-se apresentado em pornografia de IA," disse o senador republicano Josh Hawley, copatrocinador do projeto de lei, numa declaração. "As pessoas inocentes têm o direito de defender as suas reputações e responsabilizar os perpetradores em tribunal." A Deputada Alexandria Ocasio-Cortez introduziu um projeto de lei parceiro na Câmara.

\ Segundo uma nova sondagem da Data for Progress, 85 por cento dos eleitores prováveis em todo o espectro político disseram que apoiam a Lei DEFIANCE proposta—com 72 por cento das mulheres em forte apoio comparado com 62 por cento dos homens.

\ Mas os homens mais jovens são mais propensos a opor-se à Lei DEFIANCE, com cerca de um em cada cinco homens com menos de 45 anos (22 por cento) a dizer que se opõem fortemente ou de alguma forma à legislação que permite que sujeitos de deepfakes explícitos não consensuais processem o criador.

\ Danielle Deiseroth, diretora executiva da Data for Progress, disse que esta questão mostrou um dos "contrastes mais acentuados" entre homens e mulheres jovens que ela viu há algum tempo.

\ "Podemos dizer com confiança que mulheres e homens com menos de 45 anos têm opiniões divergentes sobre esta política," disse Deiseroth. "Esta é uma questão que afeta desproporcionalmente as mulheres, especialmente mulheres jovens, que são mais propensas a serem vítimas de pornografia de vingança. E acho que essa é realmente a causa principal aqui."

\ Goldberg disse que criar políticas para criminalizar maus atores é um bom começo, mas é em última análise insuficiente. Um bom próximo passo, disse ela, seria tomar ação legal visando os distribuidores online, como a App Store e o Google Play, que estão a fornecer produtos principalmente usados para atividades criminosas. As plataformas de redes sociais e aplicações de mensagens instantâneas, onde estas imagens explícitas são distribuídas, também devem ser responsabilizadas, acrescentou Goldberg.

\ Os fundadores do #MyImageMyChoice, uma organização de base que trabalha para ajudar vítimas de abuso de imagens íntimas, concordaram que mais deveria ser feito pelas empresas privadas envolvidas na criação e distribuição destas imagens.

\ Os fundadores—Sophie Compton, Reuben Hamlyn e Elizabeth Woodward—apontaram que motores de busca como o Google geram a maior parte do tráfego web total para sites de pornografia deepfake, enquanto empresas de cartões de crédito processam os seus pagamentos. Os fornecedores de serviços de Internet permitem que as pessoas os acedam, enquanto grandes serviços como Amazon, Cloudflare e Github da Microsoft os alojam. E sites de redes sociais como o X permitem que o conteúdo circule em escala. O Google mudou a sua política em 2015 e começou a permitir que as vítimas submetessem um pedido para remover peças individuais de conteúdo dos resultados de pesquisa e desde então expandiu a política para abuso de deepfake. No entanto, a empresa não remove sistematicamente sites de violência sexual baseada em imagens e abuso de deepfake.

\ "As empresas tecnológicas têm o poder de bloquear, desindexar ou recusar serviço a estes sites—sites cuja existência inteira é construída em violar o consentimento e lucrar com o trauma," disseram Compton, Hamlyn e Woodward numa declaração ao The 19th. "Mas eles escolheram não o fazer."

\ Goldberg apontou para a velocidade a que os deepfakes de Taylor Swift se espalharam. Uma imagem partilhada no X, anteriormente conhecido como Twitter, foi vista 47 milhões de vezes antes da conta que a publicou ser suspensa. As imagens continuaram a espalhar-se apesar dos esforços das empresas de redes sociais para as removerem.

\ "As imagens violentas e misóginas de Taylor Swift, ensanguentada e nua num jogo de futebol dos Kansas City Chiefs, são emblemáticas do problema," disse Goldberg. "A extensão dessa distribuição, incluindo em sites realmente mainstream, envia uma mensagem a todos de que está bem criar este conteúdo. Para mim, esse foi um momento realmente crucial e bastante assustador."

\ Dado o perfil elevado da vítima, o incidente desencadeou uma indignação pronunciada e generalizada dos fãs de Swift e trouxe atenção pública à questão. Goldberg disse que verificou se algum dos distribuidores online tinha removido produtos das suas lojas online que tornam mais fácil e mais barato criar deepfakes sexualmente explícitos—e ficou aliviada ao ver que tinham.

\ À medida que os decisores políticos e tribunais do país continuam a tentar responder à tecnologia em rápido desenvolvimento e cada vez mais acessível, Goldberg disse que é importante que os legisladores continuem a deferir para especialistas e aqueles que trabalham diretamente com vítimas, como advogados, assistentes sociais e defensores. Os legisladores que estão a regular ideias abstratas ou tecnologias em rápido avanço podem ser uma "receita para o desastre" caso contrário, acrescentou.

\ Manyame também enfatizou a importância de falar diretamente com sobreviventes ao tomar decisões políticas, mas acrescentou que os legisladores também precisam de pensar de forma mais holística sobre o problema e não ficarem demasiado atolados pela tecnologia específica—com o risco de estarem sempre atrasados. Por exemplo, Manyame disse que o público em geral está apenas agora a começar a compreender os riscos colocados pela IA e deepfakes—algo sobre o qual ajudou a escrever um relatório em 2021. Olhando para o futuro, Manyame já está a pensar sobre o Metaverso—um espaço de realidade virtual—onde os utilizadores estão a começar a lidar com casos de violação, assédio sexual e abuso.

\ "Muitas das leis em torno do abuso sexual baseado em imagens estão um pouco desatualizadas porque falam sobre pornografia de vingança especificamente," disse Manyame. "A pornografia de vingança tem sido historicamente mais uma questão de violência doméstica, na medida em que é um parceiro íntimo a partilhar uma imagem sexualmente exploratória do seu parceiro anterior ou existente. Nem sempre é o caso com deepfakes, por isso estas leis podem não fornecer proteções suficientes."

\ Além disso, Manyame argumentou que muitas destas políticas não conseguem alargar a definição de "imagem íntima" para considerar origens culturais ou religiosas diversas. Para algumas mulheres muçulmanas, por exemplo, pode ser igualmente violador e humilhante criar e disseminar imagens da sua cabeça descoberta sem hijab.

\ Quando se trata de soluções, Manyame apontou para ações que podem ser tomadas pelos criadores de aplicações, reguladores de plataformas e legisladores.

\ Na fase de design, mais medidas de segurança podem ser incorporadas para limitar o dano. Por exemplo, Manyame disse que há algumas aplicações que podem tirar fotografias de mulheres e remover automaticamente a sua roupa enquanto essa mesma função não funciona em fotografias de homens. Há formas no back end destas aplicações de tornar mais difícil remover roupas de qualquer pessoa, independentemente do seu género.

\ Uma vez que os deepfakes nefastos já estão criados e publicados, no entanto, Manyame disse que as plataformas de redes sociais e mensagens devem ter melhores mecanismos em vigor para remover o conteúdo depois de as vítimas o reportarem. Muitas vezes, as vítimas individuais são ignoradas. Manyame disse que notou que estas grandes empresas de redes sociais são mais propensas a remover estes deepfakes em países, como a Austrália, que têm reguladores terceiros para defender em nome das vítimas.

\ "É preciso haver mecanismos de monitorização e aplicação incluídos em qualquer solução," disse Manyame. "Uma das coisas que ouvimos de muitos sobreviventes é que eles só querem que a sua imagem seja removida. Nem sequer é sobre passar por um processo legal. Eles só querem que esse conteúdo desapareça."

\ Manyame disse que não é pedir muito para muitas empresas tecnológicas e reguladores governamentais porque muitos já respondem rapidamente para remover fotografias inapropriadas envolvendo crianças. É apenas uma questão de estender esse tipo de proteções às mulheres, acrescentou.

\ "A minha preocupação é que tem havido uma corrida para implementar leis e políticas de IA sem considerar quais são algumas das causas fundamentais destes danos. É um problema em camadas, e há muitas outras camadas que precisam de ser abordadas."


Créditos

  • Mariel Padilla para The 19th

Ilustração

  • Rena Li

Edição

  • Flora Peir para The 19th

\ Também publicado aqui

\ Fotografia de Steve Johnson no Unsplash

Oportunidade de mercado
Logo de Sleepless AI
Cotação Sleepless AI (AI)
$0.03693
$0.03693$0.03693
+0.16%
USD
Gráfico de preço em tempo real de Sleepless AI (AI)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.