Um equívoco comum é que, se você não usa grandes modelos de linguagem (LLMs) como o ChatGPT para chats, Midjourney para gerar imagens ou Sora para gerar vídeos, você está seguro contra a inteligência artificial (IA). Quer você a use ou não, a IA já toca sua vida.

Por exemplo, quando você tira fotos no Android, o Google Fotos verifica e rotula automaticamente cada pessoa em sua biblioteca de fotos usando reconhecimento facial. Postar nas redes sociais sem alterar suas configurações padrão cria postagens públicas que podem ser extraídas para os enormes conjuntos de dados usados para treinar LLMs. Até mesmo anúncios personalizados em sites ou aplicativos são alimentados por IA treinada em suas preferências de navegação e compras.

Essa conveniência custa sua privacidade e pode ter um impacto profundo em sua vida. Vinte fotos tiradas do feed social do seu filho são suficientes para construir um vídeo deepfake de 30 segundos que pode ser usado para chantagem, bullying ou roubo de identidade.

Aqui está o que está em jogo quando a IA tem acesso aos seus dados pessoais e o que você pode fazer para proteger sua privacidade on-line.

Como a IA está arriscando sua privacidade?

A IA pode corroer a privacidade coletando demais, inferindo demais e compartilhando demais.

Seus dados pessoais podem ser coletados

Os sistemas de IA tornam-se mais precisos treinando em grandes quantidades de dados, muitas vezes extraídos de fontes disponíveis publicamente, como suas postagens no Facebook(nova janela), fotos do Flickr(nova janela) ou tópicos do Reddit(nova janela). Postagens casuais em redes sociais, fotos de família e detalhes de perfil — muitas vezes contendo informações confidenciais e originalmente compartilhadas por motivos pessoais ou sociais — foram incluídos em conjuntos de dados usados para treinar LLMs e sistemas de reconhecimento facial de bilhões de dólares. Isso acontece porque as Big Tech tratam o conteúdo on-line como disponível gratuitamente para uso de IA, sem consentimento explícito ou consideração pela propriedade intelectual.

Você pode ser reidentificado

As empresas de tecnologia afirmam que seus dados pessoais não podem ser rastreados até você depois de terem sido desidentificados ou pseudo-anonimizados, o que significa que identificadores óbvios como nomes ou números de telefone são removidos. Mas essa proteção é frágil, pois conjuntos de dados anonimizados podem ser reidentificados cruzando-os com outras fontes de dados, como perfis de redes sociais ou rastros de geolocalização.

Por exemplo, usuários da Netflix foram reidentificados(nova janela) comparando suas classificações anônimas de filmes com informações do IMDb. Um estudo(nova janela) mostra que quase todos os americanos podem ser identificados em qualquer conjunto de dados com apenas 15 marcadores demográficos. Adicionando o poder de correspondência de padrões da IA, a reidentificação tornou-se mais rápida, fácil e acessível a qualquer pessoa.

Seus dados podem ser compartilhados com terceiros

Quando você usa sistemas de IA, seus dados nem sempre ficam com a empresa na qual você se inscreveu. Eles podem ser compartilhados com parceiros ou processadores terceirizados — alguns dos quais você provavelmente nunca ouviu falar — que podem lidar com seus dados sob seus próprios termos e padrões de segurança.

Nesse ponto, a privacidade se torna um exercício de confiança. Você não está mais apenas confiando na empresa que conhece para proteger suas informações, mas em toda uma cadeia de atores externos desconhecidos, cada um com sua própria infraestrutura, políticas e vulnerabilidades. Cada mão que toca seus dados amplia a superfície de ataque, e a responsabilidade fica confusa.

Por exemplo, uma violação envolvendo um parceiro da OpenAI levou à exposição de dados de usuários da API, mostrando como o acesso de terceiros pode se tornar o elo mais fraco do sistema.

Solicitações de exclusão de dados podem não funcionar

Depois que seus dados treinam um modelo de IA, recuperá-los é quase impossível porque eles moldam o comportamento geral do modelo. O desaprendizado de máquina — técnicas para fazer um modelo esquecer — ainda está em seus estágios iniciais, então a única opção hoje seria treinar novamente o modelo. E mesmo que uma empresa afirme ter honrado sua solicitação de exclusão de dados, praticamente não há como confirmar isso(nova janela).

Outras pessoas podem ver seus chats privados

LLMs como ChatGPT(nova janela), Meta AI(nova janela) e Grok(nova janela) expuseram conversas privadas por meio de seus recursos de compartilhamento, com chats sendo indexados por mecanismos de busca e tornados publicamente detectáveis. As plataformas não foram transparentes o suficiente sobre esse risco, deixando os usuários sem saber que o que parecia uma troca privada poderia acabar visível para qualquer pessoa na internet.

Você pode ser tratado injustamente

Se os dados usados pelos sistemas de IA para aprender padrões contêm vieses ocultos — como desigualdades históricas ou conjuntos de dados incompletos — a IA pode reforçar ou amplificar esses padrões. As apostas são mais altas com os sistemas de IA não privados das Big Tech, que são de código fechado e operam como caixas pretas que não podem ser revisadas independentemente. Esses sistemas podem usar atributos sensíveis como raça, gênero ou código postal para tomar decisões automatizadas em policiamento preditivo(nova janela), contratação(nova janela), saúde(nova janela) ou pontuação de crédito(nova janela).

A segmentação de anúncios está ficando mais precisa

Enquanto a IA não privada torna os anúncios mais inteligentes ao permitir a hipersegmentação, ela frequentemente invade a privacidade de toda a sua família. Por exemplo, a Publicis, uma corretora de dados e a maior empresa de publicidade do mundo, afirma traçar o perfil de 2,3 bilhões de pessoas e rastrear detalhes como preferências familiares e renda(nova janela) para decidir se deve direcioná-los com produtos econômicos ou premium.

Com chatbots de IA substituindo a pesquisa tradicional, os anúncios estão nos seguindo neste novo espaço. Por exemplo, a Perplexity está incorporando anúncios em respostas geradas por IA(nova janela) e fez uma oferta de US$ 34,5 bilhões para comprar o Google Chrome — um movimento destinado a obter acesso aos mais de 3 bilhões de usuários do navegador e aos dados comportamentais íntimos que vêm com ele.

O armazenamento em nuvem pode expor seus dados

Provedores de armazenamento em nuvem sem criptografia de ponta a ponta (E2EE) podem acessar as fotos, documentos e arquivos confidenciais que você envia. Eles também podem usar esses dados para alimentar ferramentas de IA, gerar insights sobre você ou mostrar anúncios personalizados.

O Google Drive, por exemplo, retém acesso aos seus dados e os usa para recursos de IA, como verificação ortográfica e preenchimento automático no Google Docs. Se o Gemini, o assistente de IA do Google, permanecer totalmente integrado ao Google Workspace, as consultas que você faz sobre seus arquivos do Drive também podem alimentar o treinamento de IA.

Da mesma forma, a Microsoft anunciou que o Word, Excel e PowerPoint em breve salvarão automaticamente no OneDrive por padrão, outro serviço sem E2EE onde o uso futuro de seus dados para publicidade ou treinamento de IA permanece incerto.

A IA pode cometer erros

Sistemas automatizados poderiam escanear suas comunicações privadas e sinalizá-las como suspeitas. A proposta de lei Chat Control da UE exigiria que serviços de mensagens como WhatsApp e Signal usassem IA para escanear cada mensagem privada e foto para detectar material de abuso sexual infantil (CSAM).

Mas isso significa monitorar as conversas de todos, não apenas as de criminosos suspeitos. E a história mostra como a IA pode facilmente cometer erros. A conta do Google de um pai, por exemplo, foi encerrada(nova janela) e denunciada às autoridades após o envio de uma foto de seu filho a um médico. O que deveria ficar entre você e seu médico, ou você e sua família, pode de repente ser exposto a empresas de tecnologia e autoridades policiais.

Qualquer pessoa pode fazer deepfakes

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Agentes mal-intencionados exploram deepfakes para roubo de identidade, fraude, chantagem ou danos à reputação — e os riscos se estendem às crianças. Em 2019, criminosos usaram áudio deepfake para imitar a voz de um CEO(nova janela) e enganaram um funcionário para transferir € 220.000. Os riscos também se estendem às crianças. Em um incidente, um predador criou uma imagem deepfake de uma criança de 14 anos(nova janela) para extorquir dinheiro ameaçando compartilhá-la.

Como manter seus dados privados de sistemas de IA

Existem muitas preocupações de privacidade com sistemas de IA, particularmente os modelos não privados e de código fechado administrados pelas Big Tech. E embora você não possa impedir totalmente que esses sistemas extraiam ou usem indevidamente seus dados depois que eles estiverem lá fora, você pode reduzir sua pegada, exigir responsabilidade e escolher IA que prioriza a privacidade e não explora seus dados. Aqui está o que você pode fazer:

  • Nas redes sociais, torne seus perfis e postagens privados, exclua uploads antigos, remova dados EXIF de fotos antes de compartilhar e evite compartilhar detalhes identificáveis — como endereços, nomes completos de crianças ou as escolas que frequentam. Saiba mais sobre como gerenciar a internet para sua família.
  • Verifique as configurações de privacidade dos seus aplicativos. Por exemplo, a Meta AI pode estar escaneando as fotos do rolo da câmera e vídeos no aplicativo do Facebook para Android e iOS.
  • Proteja-se contra deepfakes desfocando ou ocultando os rostos da sua família antes de postar fotos on-line.
  • Mascare sua pegada digital usando uma rede privada virtual (VPN)(nova janela) para ocultar seu endereço IP e use aliases para proteger seu endereço de e-mail ao postar informações confidenciais que você não gostaria que fossem rastreadas até você.
  • Use serviços que priorizam a privacidade e não monetizam seus dados, como Signal para mensagens seguras e Brave ou DuckDuckGo para navegação privada.
  • Para armazenar com segurança seus arquivos mais confidenciais, incluindo fotos privadas e documentos confidenciais, use o Proton Drive para armazenamento em nuvem criptografado de ponta a ponta. Ao contrário de plataformas que podem expor conteúdo supostamente privado, o Drive não escaneia, indexa ou usa seus dados para treinamento de IA — e eles não podem ser vistos por mais ninguém, mesmo quando você escolhe compartilhá-los. Manter suas fotos verdadeiramente privadas também significa que elas não acabarão on-line, onde poderiam ser mal utilizadas para criar deepfakes.
  • Desative o treinamento de IA sempre que possível, como no Gemini, ChatGPT(nova janela), Claude(nova janela) ou Meta AI. As políticas podem mudar da noite para o dia com pouco aviso, então se você quer os benefícios de ambos, IA e privacidade, mude para o Lumo — nosso assistente de IA que prioriza a privacidade(nova janela) que não mantém registros ou treina com seus dados.

Regulamentações mais fortes sobre privacidade de IA, como a Lei de IA da UE(nova janela), serão críticas para devolver o poder aos usuários da internet. Até lá, a melhor defesa é estar atento ao que você compartilha on-line, exigindo responsabilidade das empresas que constroem esses sistemas e escolhendo ferramentas de IA transparentes(nova janela) que respeitem a privacidade desde o início.