As grandes empresas de tecnologia construíram impérios de trilhões de dólares transformando nossas vidas pessoais em uma mercadoria. A inteligência artificial está sobrecarregando seu modelo de negócios de capitalismo de vigilância ao se integrar às ferramentas que usamos todos os dias — muitas vezes sem nos dar explicações claras ou a capacidade de optar por não participar.
Modelos de linguagem grandes (LLMs) poderosos coletam dados ainda mais detalhados e inferem mais sobre você do que era imaginável anteriormente. A IA está sendo integrada a uma ampla gama de plataformas(nova janela), desde pesquisa até armazenamento de fotos e até mesmo o sistema operacional do seu dispositivo, tornando mais difícil acompanhar, e muito menos consentir, com essa coleta de dados. Isso, por sua vez, permite que empresas como Google, Meta e Microsoft construam perfis pessoais mais abrangentes, lucrem mais com os dados e exerçam mais controle sobre as informações e narrativas que você vê.
Essas empresas podem compartilhar ou vender suas informações privadas para corretores de dados e outros terceiros. Governos podem acessar esses dados por meio de intimações(nova janela) ou formas ainda mais sorrateiras de vigilância. E dados pessoais podem ser expostos em uma violação de dados, como aconteceu repetidas(nova janela) e repetidas(nova janela) vezes com serviços como o ChatGPT.
O resultado é uma coleta de dados rápida e em grande escala, com ainda menos controles sobre as empresas para obter consentimento ou considerar as consequências da tecnologia. As leis de proteção de dados em torno da IA estão notoriamente muito atrás da indústria(nova janela).
Precisamos urgentemente de uma alternativa privada, e é por isso que construímos um novo assistente de IA confidencial, Lumo(nova janela), que não mantém nenhum registro de suas conversas. Seus bate-papos salvos estão disponíveis apenas para você, protegidos por criptografia de acesso zero. Quando se trata de seus dados, você tem uma escolha — mas mais pessoas precisam entender os riscos do status quo.
A IA torna as Big Tech ainda mais poderosas
A IA permite que Google e Meta escalem e consolidem seus monopólios existentes, especialmente em publicidade e exploração de dados pessoais, mas em uma escala muito mais rápida e maior.
A Meta, por exemplo, está integrando profundamente a IA para revitalizar seu negócio de anúncios, escaneando suas publicações e até mesmo adicionando a Meta AI(nova janela) aos seus produtos de bate-papo criptografados de ponta a ponta, como o WhatsApp, em uma aparente tentativa de desviar mais dados pessoais da plataforma. O Google adotou a abordagem AI-first em seu negócio de publicidade(nova janela), então cada anúncio é otimizado para manipular você pessoalmente. E o Gemini do Google agora está profundamente integrado em todo o seu ecossistema, dando à sua IA um passe livre para coletar dados de telefones Android e aplicativos do Google.
A IA é semelhante à pesquisa, mas muito mais íntima e profundamente enraizada em sua vida. Enquanto o rastreamento de pesquisa usa consultas simples e cliques para prever seus interesses, a IA usa processamento de linguagem natural e até reconhecimento de imagem para prever as marcas, mensagens, emoções e imagens que ressoarão mais profundamente com você. Algumas pessoas estão até se tornando emocionalmente investidas(nova janela) em chatbots de IA devido à proximidade com que podem imitar a conexão humana — algo que nunca aconteceu com mecanismos de pesquisa.
Uma agência de publicidade se gaba(nova janela) de que a publicidade alimentada por IA é uma “mudança sísmica” que dá aos clientes o poder de “avaliar sentimentos e preferências” e até mesmo “processar dados visuais, como imagens e vídeos, para identificar logotipos de marcas e uso de produtos, permitindo a segmentação de anúncios específica do contexto”. Imagine se produtos de beleza pudessem atingir seu filho no momento em que ele expressa ansiedades a um amigo, ou se políticos pudessem implantar anúncios otimizados por IA para explorar os medos privados dos eleitores.
As Big Tech já são mais poderosas que governos — imagine o que poderiam realizar com uma IA desenfreada.
Seus bate-papos estão vazando
Sua privacidade está em jogo, mas também sua segurança. A IA cria um enorme conjunto centralizado de informações íntimas que é cada vez mais vulnerável a ser exposto de várias maneiras.
Isso já aconteceu:
- Em julho de 2025, repórteres descobriram que mais de 100.000 conversas no ChatGPT(nova janela) foram indexadas pelo Google e tornadas pesquisáveis. Usuários clicando no botão “compartilhar” para enviar uma conversa a amigos ou colegas quase certamente não perceberam que suas conversas privadas estariam visíveis para todos na internet.
- Em 2024, pesquisadores usaram uma injeção de prompt no Slack AI(nova janela) para revelar conteúdo compartilhado em canais privados.
- Em 2023, uma equipe diferente de pesquisadores extraiu credenciais de software reais(nova janela) (conhecidas como “segredos”) do assistente de IA Copilot do GitHub, que é treinado em bilhões de linhas de código. Parte desse código de treinamento incluía credenciais, e os pesquisadores convenceram a IA a cuspir mais de 200 delas.
- Em janeiro de 2025, após o lançamento chamativo da inicialização de IA DeepSeek, uma equipe de pesquisa encontrou um banco de dados público(nova janela) que incluía um grande volume de registros de bate-papo, segredos e outros dados sensíveis.
- Em agosto de 2025, contratados trabalhando para a Meta AI disseram ter lido conversas pessoais(nova janela) nas quais as pessoas compartilhavam dados sensíveis com o chatbot.
Sempre que dados pessoais são armazenados sem criptografia de ponta a ponta ou acesso zero nos servidores de uma empresa, esses dados ficam vulneráveis a serem vazados. Registros de bate-papo são um alvo incrivelmente atraente para hackers — e governos. Um tribunal dos EUA já ordenou que a OpenAI retenha todos os registros de bate-papo dos usuários(nova janela) (o que a empresa está combatendo atualmente). Esses dados estariam então disponíveis para o governo sob demanda. Os EUA já têm uma variedade de métodos para espionar secretamente os usuários, desde escutas sem mandado até solicitações de dados que as grandes empresas de tecnologia são obrigadas a obedecer.
Quanto mais dados os sistemas de IA absorvem, mais eles correm o risco de revelar, seja por meio de vazamentos acidentais, saídas tendenciosas ou pressão governamental.
Não são apenas dados – é influência
Isso provavelmente não precisa ser dito: as empresas e os agentes políticos que o visam com anúncios não estão cuidando dos seus melhores interesses.
A IA leva essa manipulação a um nível totalmente novo. Ao contrário da mídia de massa, que você pode escolher ignorar, a IA está entrelaçada em sua vida cotidiana — respondendo às suas perguntas e oferecendo sugestões no aplicativo que você nem queria. Não é apenas reativa; é proativa. E quando é construída por empresas ou explorada por governos com agendas específicas, isso a torna incrivelmente poderosa e perigosa.
Já estamos vendo como isso se parece. Na China, o DeepSeek demonstrou evitar ou apagar tópicos politicamente sensíveis. Pergunte sobre os protestos da Praça da Paz Celestial e você baterá em uma parede(nova janela) — não porque a IA não saiba, mas porque sua jurisdição significa que ela não tem permissão para lhe dizer.
Isso não é um problema exclusivo da China. O chatbot Grok de Elon Musk levantou sobrancelhas por assumir posições políticas claras(nova janela) e oferecer saídas totalmente diferentes dependendo de como seu “dial” interno estava definido. Também foi descoberto que ele consulta as próprias opiniões de Musk(nova janela) sobre um tópico antes de compartilhar sua resposta. Isso mostra como a orientação da IA pode ser moldada para promover certos pontos de vista, sutilmente ou não, o que se tornará cada vez mais problemático à medida que confiamos mais na IA para educação e informação sem verificar as fontes primárias.
Então, se a IA está moldando o que você vê, o que você pensa e como você se sente, quem decide qual versão da verdade você recebe?
IA construída para pessoas, não para lucro
Se queremos uma IA que não seja moldada pelas Big Tech ou por políticas autoritárias e que proteja seus dados de hackers e vazamentos, precisamos construir algo diferente. Isso significa apoiar ferramentas de IA privadas e independentes, sem segundas intenções ou agendas ocultas.
O Lumo é um passo nessa direção. É construído na Europa, sem investimentos do Vale do Silício ou vigilância estrangeira, e supervisionado pela Proton Foundation sem fins lucrativos, que é obrigada por seu estatuto a promover a privacidade de nossa comunidade. Como nossa empresa foi fundada por cientistas que se conheceram no CERN em 2014, temos sido financiados exclusivamente por nossos usuários, não por investidores ou anunciantes. Isso garante que nossos valores e missão permaneçam alinhados com as pessoas que servimos.
Nós projetamos o Lumo para ser privado por padrão, o que significa que ele não mantém registros de bate-papo, e seus bate-papos são armazenados com criptografia de acesso zero, para que apenas você possa vê-los. O Lumo também é construído em modelos de código aberto e seus dados nunca são usados para treinar a IA.
O Lumo é apenas o começo. Se queremos um futuro onde a IA sirva às pessoas — não ao lucro, não ao poder — devemos exigi-lo. Ao escolher alternativas privadas hoje, você ajuda a moldar uma internet mais transparente, mais democrática e mais respeitosa dos seus direitos. As ferramentas estão aqui. A escolha é sua.



