Os homens acreditaram no que viram on-line: um site cheio de imagens explícitas geradas por IA do rosto dela no corpo de outra pessoa, ao lado de seu endereço residencial real. O site alegava que a casa dela era um bordel.
Sweet Anita, uma das streamers mais reconhecíveis da Twitch, entendia os riscos de ser uma mulher on-line e tomou precauções. Ela ocultou seu nome real, estabeleceu limites e contratou uma equipe. Nada disso impediu que alguém fizesse um deepfake dela.
Nada a preparou para o que veio a seguir.
A história de Sweet Anita
Um homem anônimo encomendou pornografia gerada por IA dela, depois construiu um site falso enquadrando-a como uma trabalhadora do sexo — e listou seu endereço residencial. Toda a armação foi projetada para atrair homens para sua casa com a falsa expectativa de que poderiam forçá-la a fazer sexo. “Depois que ele fez isso, comecei a receber homens na minha casa, especialmente quando eu fazia transmissões ao vivo e estava longe de casa”, disse ela. “Não me sinto segura na minha própria casa.”
Estranhos com mochilas tentaram invadir. Ela tinha medo de receber correspondência do carteiro. Ela teve que parar de atender a porta e deixar a casa sozinha. Ela já se mudou antes, mas eles continuavam a encontrá-la.
E o abuso não se limitou à sua porta da frente. Sua falecida mãe, orgulhosa do trabalho da filha, verificava as redes sociais de Anita e era forçada a passar por imagens explícitas geradas por IA. Amigos e colegas de trabalho também as viam. “Eu poderia excluir tudo do YouTube, Twitch, todas as minhas redes sociais — e ainda haveria montes de imagens do meu rosto em vídeos que poderiam ser usadas como referência”, disse ela.
Deepfakes são o novo bullying
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
De acordo com uma pesquisa da Girlguiding(nova janela), mais de um em cada quatro adolescentes diz ter visto um deepfake explícito de alguém que conhece — um colega de classe, um professor, um amigo ou até eles mesmos. A CNN relata(nova janela) que 40% dos alunos e 29% dos professores disseram estar cientes de um deepfake de alguém conectado à sua escola no ano passado, e 15% dos alunos disseram ter visto versões explícitas. A maioria das escolas não tem políticas para lidar com essa forma de abuso.
Os danos são graves. As vítimas podem sofrer ansiedade, depressão e até TEPT. Elas podem se isolar socialmente, perder amigos ou evitar aplicar para empregos ou faculdades porque falsificações explícitas podem surgir durante uma pesquisa. Algumas são até forçadas a gastar dinheiro tentando limpar o conteúdo da internet.
O Fórum Econômico Mundial observa(nova janela) que, embora os deepfakes não tenham desestabilizado as eleições como muitos temiam, eles se tornaram uma ferramenta para assédio e golpes. A pornografia não consensual é a forma mais extrema, mas os invasores também usam vozes clonadas e chamadas de vídeo falsas para cometer fraudes. Em 2024, um funcionário de finanças em Hong Kong foi enganado e pagou US$ 25 milhões depois de participar de uma chamada no Zoom em que todos os participantes — incluindo o CFO — eram deepfakes(nova janela).
“Pelo resto da minha vida, não vejo uma maneira de evitar isso pessoalmente”, disse Anita. “E também não acho que eu deva ser responsável por isso. Não é meu problema, e não é minha culpa.”
Isso pode acontecer com qualquer pessoa
Leva apenas um punhado de imagens. Um Instagram público. Uma foto da escola. Um álbum compartilhado. Uma vez que um rosto está on-line, ele pode ser copiado, extraído e mal utilizado.
De acordo com o professor Carsten Maple, do Centro de Segurança Cibernética da Universidade de Warwick, com as ferramentas de IA de hoje, apenas 20 fotos são suficientes para criar um perfil realista de alguém, ou até mesmo um vídeo de 30 segundos, expandindo o escopo de perigos potenciais — um fato que 53% dos pais recentemente pesquisados não sabiam.
O New York Times relatou o aumento dos chamados “aplicativos nudificadores”(nova janela) que podem remover roupas de fotos usando IA. Esses aplicativos são baratos, fáceis de usar e amplamente disponíveis. Investigadores estimam que a indústria arrecada cerca de US$ 36 milhões por ano. Apesar de uma nova lei dos EUA tornar ilegal publicar nus falsos não consensuais, os próprios aplicativos permanecem legais. “Qualquer criança com acesso à internet pode ser vítima ou perpetradora”, disse Alexios Mantzarlis, cuja equipe investigou 85 sites desse tipo, ao New York Times.
Contas privadas não são garantia de segurança. Os abusadores costumam ser pessoas que a vítima conhece. Mesmo publicações aparentemente inofensivas, como festas de aniversário, podem revelar detalhes que alimentam o roubo de identidade, que afetou cerca de 1,1 milhão de crianças em 2024.
“As pessoas que [fazem deepfakes] muitas vezes esquecem que é assustador, que é inapropriado — tipo, se seus colegas de trabalho e amigos soubessem, eles seriam demitidos e condenados ao ostracismo. Eles perderiam todos que conhecem, seus pais ficariam decepcionados com eles, certo?” disse ela. “Mas, quando você está on-line e fazendo esse material um para o outro com um bando de assustadores com a mesma mentalidade, então é apenas um hobby e um passatempo para eles. Eles conseguem ignorar completamente, esquecer e se iludir sobre o impacto que isso tem na vida das pessoas.”
O risco de deepfake vai muito além das redes sociais
Hoje, o maior risco pode vir do que é compartilhado nas redes sociais. Mas e todas as fotos que você não compartilha?
Google, Apple, Amazon, Meta e outros oferecem armazenamento em nuvem para suas fotos, às vezes gratuitamente. Mas essa conveniência ainda tem um custo. O Google tem usado suas fotos para treinar IA desde pelo menos 2015, quando foi forçado a se desculpar por classificar um casal negro como “gorilas”.(nova janela) Desde então, todos os principais provedores de armazenamento ficaram muito melhores no reconhecimento facial. Como você acha que isso aconteceu? Mais fotos, alimentando constantemente a IA.
Os bilhões de fotos e vídeos armazenados com a Big Tech são um vasto tesouro de material que um dia pode servir de alimento para gerar deepfakes incrivelmente detalhados e realistas.
Basta uma mudança silenciosa nos termos de serviço.
Proteja suas memórias como você protege suas senhas
Você não pode controlar o que os outros fazem com sua imagem. Mas você pode controlar onde suas imagens vivem e quem tem acesso a elas. O Proton Drive oferece uma maneira privada e criptografada de armazenar as fotos e arquivos que mais importam.
- Criptografia de ponta a ponta: Seus arquivos são criptografados antes mesmo de saírem do seu dispositivo. Ao contrário da Big Tech, nem mesmo a Proton pode vê-los.
- Privado por padrão: Seus dados nunca são vendidos, compartilhados ou usados para treinar IA.
- Compartilhamento seguro: Adicione senhas, defina datas de expiração ou revogue o acesso a qualquer momento.
- Backup automático: Mesmo se seu telefone for perdido ou roubado, suas memórias permanecem seguras.
Com o Proton Drive, seus dados continuam sendo seus — sempre.


