À medida que o uso da inteligência artificial aumenta, os assistentes de IA(nova janela) estão se tornando companheiros de confiança. Milhões de pessoas recorrem a chatbots como ChatGPT, Claude, Gemini, DeepSeek e outros para fazer perguntas e resolver problemas. Suas consultas podem ser profundamente sensíveis, perguntando sobre preocupações de saúde, compartilhando dados de clientes ou buscando suporte emocional e inspiração criativa.

Para muitos, esses chatbots parecem humanos, responsivos e confidenciais. Mas desenvolvimentos recentes (Uma ordem judicial obrigou a OpenAI a preservar os dados de saída do ChatGPT(nova janela) indefinidamente, e Sam Altman, fundador da OpenAI, diz que o ChatGPT não oferece “confidencialidade legal”(nova janela)) iluminam o risco de que cada palavra que você digita possa ser registrada, armazenada, analisada e possivelmente mal utilizada ou vazada para terceiros.

Veja o que isso pode significar e por que isso deve preocupar a todos nós.

Os riscos são maiores com a IA

A ascensão dos assistentes de IA parece uma nova fronteira, mas, de muitas maneiras, já estivemos aqui antes. As preocupações em torno dos registros de chat de IA ecoam aquelas que surgiram nos primeiros dias dos mecanismos de pesquisa, muitas das quais se mostraram bem fundamentadas. Os registros de pesquisa foram usados para criar perfis de direcionamento de anúncios lucrativos, foram expostos em violações de dados e foram alvo de intimação no tribunal.

Com a IA, os riscos são maiores porque os dados são mais pessoais e detalhados. Um número crescente de pessoas está trocando os mecanismos de pesquisa por chatbots de IA para obter suas respostas, com previsões de que o volume de uso de mecanismos de pesquisa cairá 25% até 2026(nova janela). Ao contrário de uma barra de pesquisa, que normalmente captura consultas curtas e fragmentadas, as perguntas aos chatbots são enquadradas como se quem pergunta estivesse falando com outra pessoa, revelando muito mais sobre si mesmo no processo. Uma única conversa pode conter pensamentos pessoais(nova janela), lutas emocionais, preocupações de saúde(nova janela), medos financeiros ou até mesmo nomes e endereços completos.

Resumindo, os registros de chat oferecem um mapa incrivelmente rico e íntimo de sua identidade, mais do que os registros de mecanismos de pesquisa — e com implicações muito maiores para sua privacidade. As Big Techs podem acessar seus registros de chat e usá-los para criar um perfil psicológico sobre você que pode ser divulgado ao governo ou usado para publicidade direcionada. Por exemplo, a Meta está usando dados de chat de IA para criar anúncios personalizados.

Seus chats ‘anônimos’ nem sempre permanecerão assim

Um argumento comum contra a preocupação com a privacidade do registro de chat é que o volume absoluto de dados torna a exploração individual improvável, especialmente quando os usuários não estão conectados. Mas a história recente conta uma história diferente.

Em julho, repórteres descobriram que mais de 100.000 conversas no ChatGPT(nova janela) foram indexadas pelo Google e tornadas pesquisáveis. Os usuários que clicaram no botão “compartilhar” para enviar uma conversa para amigos ou colegas quase certamente não perceberam que suas conversas privadas seriam visíveis para todos na internet.

Este exemplo é um aviso: os chamados dados “anônimos” raramente são anônimos. Emparelhados com endereços IP, carimbos de data/hora, impressões digitais do dispositivo e IDs de sessão e cookie, esses registros se tornam muito mais identificáveis.

Como os chats podem expor nossas vidas interiores

As plataformas de IA populares ChatGPT(nova janela), Gemini(nova janela) e DeepSeek(nova janela) afirmam que os registros de bate-papo do usuário são usados para ajudar a melhorar o desempenho do modelo e não são usados para “vender” seus dados para publicidade ou perfil de usuário. Mas as políticas podem mudar da noite para o dia, como mostra a batalha legal da OpenAI.

Por exemplo, a Anthropic atualizou sua política de privacidade(nova janela) sem aviso em agosto de 2025 para estender o período de retenção de dados. Com registros armazenados indefinidamente, os dados pessoais que antes pareciam fora dos limites podem de repente se tornar uma fonte lucrativa de lucros.

Não seria a primeira vez que isso acontece. Quando o Google foi lançado em 1998, os cofundadores Sergey Brin e Larry Page avisaram(nova janela) que mecanismos de pesquisa baseados em publicidade seriam inevitavelmente “intrinsecamente tendenciosos para os anunciantes e longe das necessidades dos consumidores”. Uma década depois, o Google começou a usar históricos de pesquisa para direcionar anúncios(nova janela).

Com acesso direto à vida íntima das pessoas, os registros de IA podem levar o direcionamento de anúncios ao limite. Com um número crescente de usuários recorrendo a chatbots para suporte emocional(nova janela), alguém pode confidenciar:

  • “Estou me sentindo sobrecarregado e sozinho ultimamente.”
  • “Você acha que estou com depressão?”
  • “O que posso fazer se não conseguir pagar o aluguel no próximo mês?”

Essas declarações não são apenas palavras-chave ou uma coleção de interações, são claros significantes emocionais e situacionais. Se armazenados e analisados, eles poderiam ser usados para construir perfis psicológicos e manipular as decisões do usuário.

Não é alarmismo sugerir que tais informações íntimas e confidenciais possam ser usadas para fins de exploração — porque as grandes empresas de tecnologia fizeram exatamente isso. Em 2017, o Facebook demonstrou que nenhuma interação está fora dos limites ao explorar maneiras de direcionar adolescentes emocionalmente vulneráveis(nova janela) com anúncios durante momentos de insegurança.

Registros de chatbot são uma janela para sua psique. E esse nível de acesso levanta preocupações significativas de privacidade e ética em um setor que ainda não tem diretrizes e regulamentos claros sobre uso e aplicação de dados.

Os riscos legais para usuários

O histórico de pesquisa desempenha há muito tempo uma função em investigações criminais e processos judiciais. Existem vários casos em que consultas on-line contribuíram para vereditos de culpa, notadamente Moira Akers vs State nos EUA.

Depois de sofrer um natimorto em 2018, Akers foi acusada de assassinato e, em 2022, foi condenada a 30 anos de prisão. Uma parte fundamental do caso da promotoria foram as pesquisas na internet de Akers sobre aborto, realizadas durante os estágios iniciais de sua gravidez. Segundo a acusação, essas pesquisas serviram como prova da intenção de Akers — apesar do fato de ela ter levado a gravidez até o fim. A Suprema Corte de Maryland anulou sua condenação em 2025, decidindo que a evidência da consulta de pesquisa era inadmissível(nova janela). Mas Akers já havia passado quase três anos na prisão. O caso destaca como registros armazenados podem ser usados para contar uma história para se adequar a uma narrativa desfavorável, mesmo que haja evidências que a contradigam.

Os riscos podem ser ainda maiores com bate-papos armazenados de IA que podem estar sujeitos a evidências legais. Ao contrário das consultas de pesquisa, essas interações são mais conversacionais e até especulativas, às vezes como uma forma de solicitar um certo tipo de resposta do LLM, ou grande modelo de linguagem. Uma troca privada e inocente com uma IA poderia mais tarde ser interpretada como incriminadora em um cenário jurídico, independentemente da intenção na época.

Uma ferramenta poderosa para manipulação

Aqueles que podem ver registros de chatbot podem obter acesso a planos comportamentais detalhados: hábitos pessoais, gatilhos emocionais, dinâmicas de relacionamento e até vulnerabilidades profissionais. Nas mãos erradas, esses dados são uma ferramenta poderosa para engenharia social, que é uma tática comum de hacking envolvendo manipulação psicológica.

Esse risco está longe de ser hipotético. Em janeiro de 2025, a plataforma de IA DeepSeek deixou um enorme banco de dados exposto on-line(nova janela). A violação incluiu mais de um milhão de registros de bate-papo de IA e chaves de API, todos acessíveis publicamente a qualquer pessoa que soubesse onde procurar. Entre os dados expostos estavam conversas em texto simples que podem ter contido discussões sobre família, finanças e projetos confidenciais — informações que poderiam ser facilmente exploradas para fraude, chantagem ou roubo de identidade.

Uma vez vazados, esses dados podem ser usados como arma para se passar por você ou manipulá-lo. Ao referenciar detalhes pessoais extraídos de conversas passadas, os invasores podem ganhar sua confiança e explorá-la para criar sérias vulnerabilidades financeiras ou de segurança.

O espectro da vigilância política

Em regimes autoritários, as consequências das interações digitais armazenadas podem ser muito mais graves. Por exemplo, vários países proibiram a plataforma de IA baseada na China, DeepSeek, de ser usada em dispositivos governamentais(nova janela) devido a preocupações de segurança sobre como as informações pessoais dos usuários são tratadas pelo operador. Coreia do Sul, Austrália e Taiwan levantaram preocupações de que esses dados pudessem ser acessados pelas autoridades chinesas e potencialmente usados para vigilância.

Para dissidentes, ativistas ou jornalistas, isso não é apenas um problema de privacidade, é uma questão de segurança. Um bate-papo aparentemente casual sobre direitos de protesto, leis de mídia ou rotas de asilo poderia ser interpretado como evidência incriminatória em jurisdições com proteções limitadas para liberdade de expressão e liberdades civis.

Uma ameaça à propriedade intelectual

Em 2023, engenheiros da Samsung enviaram involuntariamente código-fonte proprietário(nova janela) para o ChatGPT enquanto tentavam depurar um problema, sob a crença equivocada de que suas consultas eram privadas. Uma vez enviados, esses dados se tornaram parte do sistema de treinamento da OpenAI, gerando preocupações sobre a segurança e propriedade da propriedade intelectual compartilhada com ferramentas de IA.

Uma preocupação relacionada surgiu no caso de direitos autorais de alto perfil movido pelo The New York Times contra a OpenAI(nova janela) mencionado no início deste artigo. O caso gerou uma ordem judicial exigindo que a OpenAI preservasse todos os dados de saída do ChatGPT indefinidamente após alegações de que a empresa usou milhões de artigos do jornal para treinar seus modelos sem permissão. Embora o caso se concentre nos rastereadores da web da OpenAI extraindo conteúdo de notícias, ele levanta questões mais amplas para criativos — escritores, designers, músicos e outros — que contribuem com trabalhos originais para plataformas de IA.

Se o conteúdo enviado pelo usuário for retido e reutilizado pelo modelo, há um risco real de que material proprietário ou criativo possa ser redistribuído para outros usuários sem atribuição ou consentimento. Isso confunde a linha entre a contribuição do usuário e os dados de treinamento de IA, e levanta questões urgentes sobre autoria e propriedade na era da IA generativa.

O que precisa mudar e como se proteger

A maioria das pessoas quer e espera privacidade em suas vidas reais. Acreditamos que as mesmas expectativas devem se estender às vidas digitais das pessoas. Construímos um conjunto de serviços criptografados que tornam a privacidade on-line acessível para qualquer pessoa, seja enviando e-mails para seus amigos, fazendo streaming de seus programas favoritos(nova janela) ou fazendo backup de fotos. Não é tarde demais para corrigir os erros iniciais da internet, e com a IA em seus primeiros dias ainda há tempo para traçar um novo curso para essa tecnologia que respeite sua privacidade.

Construímos nosso assistente de IA(nova janela) Lumo de uma forma que mantém as principais proteções por design:

  • Sem registro de dados: Os usuários devem ser capazes de interagir com chatbots sem a preocupação de que seus envios sejam armazenados, usados para lucro ou usados contra eles. 
  • Sem treinamento de modelo: Bate-papos privados nunca devem ser explorados como dados de treinamento, porque corre-se o risco de reaparecerem nas saídas do modelo mais tarde.
  • Transparência no tratamento de dados: Deve estar claro como os dados armazenados do usuário são usados, quem pode obter acesso a eles, onde são armazenados, por quanto tempo são retidos e como podem ser excluídos.
  • Criptografia de acesso zero por padrão: As conversas devem ser protegidas usando as chaves de criptografia do usuário, para que nem mesmo o provedor de IA possa obter acesso.

Embora os perigos dos chatbots que registram silenciosamente nossos dados sejam reais e urgentes, não somos impotentes. Ao escolher ferramentas de IA com foco na privacidade e exigir transparência e responsabilidade de seus criadores, podemos mudar o equilíbrio de poder de volta para as mãos dos usuários, afirmando a crença de que a privacidade é um direito, não um privilégio.