Les entreprises de la Big Tech ont bâti des empires de plusieurs milliards de dollars en transformant nos vies personnelles en marchandises. L’intelligence artificielle dope leur modèle commercial de capitalisme de surveillance en s’intégrant dans les outils que nous utilisons tous les jours — souvent sans nous donner d’explications claires ni la possibilité de nous désinscrire.
Les puissants grands modèles de langage (LLM) collectent des données encore plus détaillées et déduisent plus de choses sur vous qu’on ne pouvait l’imaginer auparavant. L’IA est intégrée à un large éventail de plateformes(nouvelle fenêtre), de la recherche au stockage de photos et même au système d’exploitation de votre appareil, ce qui rend plus difficile le suivi, et encore plus le consentement, à cette collecte de données. Cela permet à des entreprises comme Google, Meta et Microsoft de créer des profils personnels plus complets, de tirer davantage profit des données et d’exercer plus de contrôle sur les informations et les récits que vous voyez.
Ces entreprises peuvent partager ou vendre vos informations privées à des courtiers en données et à d’autres tiers. Les gouvernements peuvent exploiter ces données par le biais d’assignations à comparaître(nouvelle fenêtre) ou de formes de surveillance encore plus sournoises. Et les données personnelles peuvent être exposées lors d’une fuite de données, comme cela s’est produit maintes(nouvelle fenêtre) et maintes(nouvelle fenêtre) fois avec des services comme ChatGPT.
Le résultat est une collecte de données rapide et à grande échelle, avec encore moins de contrôles sur les entreprises pour obtenir le consentement ou prendre en compte les conséquences de la technologie. Les lois sur la protection des données concernant l’IA sont notoirement loin derrière l’industrie(nouvelle fenêtre).
Nous avons besoin d’urgence d’une alternative privée, c’est pourquoi nous avons créé un nouvel assistant IA confidentiel, Lumo(nouvelle fenêtre), qui ne conserve aucun enregistrement de vos conversations. Vos discussions enregistrées ne sont accessibles qu’à vous, protégées par un chiffrement à accès nul (zero-access). En ce qui concerne vos données, vous avez le choix — mais plus de gens doivent comprendre les risques du statu quo.
L’IA rend la Big Tech encore plus puissante
L’IA permet à Google et Meta de développer et de consolider leurs monopoles existants, en particulier dans la publicité et l’exploitation des données personnelles, mais à une échelle beaucoup plus rapide et plus large.
Meta, par exemple, intègre profondément l’IA pour revitaliser son activité publicitaire, en scannant vos publications et même en ajoutant Meta AI(nouvelle fenêtre) à ses produits de chat chiffrés de bout en bout comme WhatsApp, dans une tentative apparente de siphonner davantage de données personnelles de la plateforme. Google a adopté une approche « AI-first » avec son activité publicitaire(nouvelle fenêtre), de sorte que chaque publicité est optimisée pour vous manipuler personnellement. Et Gemini est maintenant profondément intégré à tout son écosystème, donnant à son IA un laissez-passer pour collecter des données à partir des téléphones Android et des applications Google.
L’IA est similaire à la recherche, mais beaucoup plus intime et profondément ancrée dans votre vie. Alors que le suivi de la recherche utilise des requêtes simples et des clics pour prédire vos intérêts, l’IA utilise le traitement du langage naturel et même la reconnaissance d’images pour prédire les marques, les messages, les émotions et l’imagerie qui résonneront le plus profondément en vous. Certaines personnes s’investissent même émotionnellement(nouvelle fenêtre) dans les chatbots IA en raison de la proximité avec laquelle ils peuvent imiter la connexion humaine — ce qui n’est jamais arrivé avec les moteurs de recherche.
Une agence de publicité se vante(nouvelle fenêtre) que la publicité alimentée par l’IA est un « changement sismique » qui donne aux clients le pouvoir de « jauger le sentiment et les préférences » et même de « traiter les données visuelles, telles que les images et les vidéos, pour identifier les logos de marque et l’utilisation des produits, permettant un ciblage publicitaire spécifique au contexte ». Imaginez si des produits de beauté pouvaient cibler votre enfant au moment où il exprime ses anxiétés à un ami, ou si des politiciens pouvaient déployer des publicités optimisées par l’IA pour exploiter les peurs privées des électeurs.
La Big Tech est déjà plus puissante que les gouvernements — imaginez ce qu’ils pourraient accomplir avec une IA débridée.
Vos discussions fuient
Votre respect de la vie privée est en jeu, mais votre sécurité l’est aussi. L’IA crée un pool massif et centralisé d’informations intimes qui sont de plus en plus vulnérables à l’exposition de diverses manières.
Cela s’est déjà produit :
- En juillet 2025, des journalistes ont découvert que plus de 100 000 conversations dans ChatGPT(nouvelle fenêtre) avaient été indexées par Google et rendues consultables. Les utilisateurs cliquant sur le bouton « partager » pour envoyer une conversation à des amis ou des collègues n’ont presque certainement pas réalisé que leurs conversations privées seraient visibles par tout le monde sur internet.
- En 2024, des chercheurs ont utilisé une injection de prompt dans Slack AI(nouvelle fenêtre) pour révéler du contenu partagé dans des canaux privés.
- En 2023, une autre équipe de chercheurs a extrait de véritables identifiants logiciels(nouvelle fenêtre) (connus sous le nom de « secrets ») de l’assistant IA Copilot de GitHub, qui est entraîné sur des milliards de lignes de code. Une partie de ce code d’entraînement comprenait des identifiants, et les chercheurs ont convaincu l’IA d’en recracher plus de 200.
- En janvier 2025, après le lancement en fanfare de la startup d’IA DeepSeek, une équipe de recherche a trouvé une base de données publique(nouvelle fenêtre) qui comprenait un volume énorme de journaux de discussion, de secrets et d’autres données sensibles.
- En août 2025, des sous-traitants travaillant pour Meta AI ont déclaré avoir lu des conversations personnelles(nouvelle fenêtre) dans lesquelles des personnes partageaient des données sensibles avec le chatbot.
Chaque fois que des données personnelles sont stockées sans chiffrement de bout en bout ou à accès nul (zero-access) sur les serveurs d’une entreprise, ces données sont vulnérables aux fuites. Les journaux de discussion sont une cible incroyablement attrayante pour les pirates — et les gouvernements. Un tribunal américain a déjà ordonné à OpenAI de conserver tous les journaux de discussion des utilisateurs(nouvelle fenêtre) (ce que l’entreprise conteste actuellement). Ces données seraient alors accessibles au gouvernement sur demande. Les États-Unis disposent déjà de diverses méthodes pour espionner secrètement les utilisateurs, des écoutes sans mandat aux demandes de données auxquelles les entreprises de la Big Tech sont tenues d’obéir.
Plus les systèmes d’IA absorbent de données, plus ils risquent d’en révéler, que ce soit par des fuites accidentelles, des résultats biaisés ou la pression gouvernementale.
Ce ne sont pas seulement des données – c’est de l’influence
Cela va probablement sans dire : les entreprises et les agents politiques qui vous ciblent avec des publicités ne cherchent pas à défendre vos intérêts.
L’IA porte cette manipulation à un tout autre niveau. Contrairement aux médias de masse, que vous pouvez choisir d’ignorer, l’IA est tissée dans votre vie quotidienne — répondant à vos questions et offrant des suggestions in-app que vous ne vouliez même pas. Elle n’est pas seulement réactive ; elle est proactive. Et lorsqu’elle est construite par des entreprises ou exploitée par des gouvernements avec des agendas spécifiques, cela la rend incroyablement puissante et dangereuse.
Nous voyons déjà à quoi cela ressemble. En Chine, il a été démontré que DeepSeek évitait ou effaçait les sujets politiquement sensibles. Posez des questions sur les manifestations de la place Tiananmen et vous vous heurterez à un mur(nouvelle fenêtre) — non pas parce que l’IA ne sait pas, mais parce que sa juridiction signifie qu’elle n’a pas le droit de vous le dire.
Ce n’est pas un problème unique à la Chine. Le chatbot Grok d’Elon Musk a fait sourciller pour avoir pris des positions politiques claires(nouvelle fenêtre) et offert des résultats très différents selon la façon dont son « cadran » interne était réglé. Il a également été découvert qu’il consultait les propres opinions de Musk(nouvelle fenêtre) sur un sujet avant de partager sa réponse. Cela montre comment l’orientation de l’IA peut être façonnée pour promouvoir certains points de vue, subtilement ou non, ce qui deviendra de plus en plus problématique à mesure que nous compterons davantage sur l’IA pour l’éducation et l’information sans vérifier les sources primaires.
Donc, si l’IA façonne ce que vous voyez, ce que vous pensez et ce que vous ressentez, qui décide quelle version de la vérité vous obtenez ?
Une IA construite pour les gens, pas pour le profit
Si nous voulons une IA qui n’est pas façonnée par la Big Tech ou la politique autoritaire et qui protège vos données contre les pirates et les fuites, nous devons construire quelque chose de différent. Cela signifie soutenir des outils d’IA privés et indépendants sans arrière-pensées ni agendas cachés.
Lumo est un pas dans cette direction. Il est construit en Europe, sans investissements de la Silicon Valley ni surveillance étrangère, et supervisé par la Proton Foundation à but non lucratif, qui est tenue par sa charte de favoriser le respect de la vie privée de notre communauté. Puisque notre entreprise a été fondée par des scientifiques qui se sont rencontrés au CERN en 2014, nous avons été exclusivement financés par nos utilisateurs, et non par des investisseurs ou des annonceurs. Cela garantit que nos valeurs et notre mission restent alignées avec les personnes que nous servons.
Nous avons conçu Lumo pour être privé par défaut, ce qui signifie qu’il ne conserve pas de journaux de discussion, et vos discussions sont stockées avec un chiffrement à accès nul (zero-access), de sorte que vous seul pouvez les voir. Lumo est également construit sur des modèles open source, et vos données ne sont jamais utilisées pour entraîner l’IA.
Lumo n’est que le début. Si nous voulons un avenir où l’IA sert les gens — pas le profit, pas le pouvoir — nous devons l’exiger. En choisissant des alternatives privées aujourd’hui, vous aidez à façonner un internet plus transparent, plus démocratique et plus respectueux de vos droits. Les outils sont là. Le choix vous appartient.
