Une idée fausse courante est que si vous n’utilisez pas de grands modèles de langage (LLM) comme ChatGPT pour les discussions, Midjourney pour générer des images, ou Sora pour générer des vidéos, vous êtes à l’abri de l’intelligence artificielle (IA). Que vous l’utilisiez ou non, l’IA touche déjà votre vie.

Par exemple, lorsque vous prenez des photos sur Android, Google Photos scanne et étiquette automatiquement chaque personne dans votre photothèque à l’aide de la reconnaissance faciale. Publier sur les réseaux sociaux sans modifier vos paramètres par défaut crée des publications publiques qui peuvent être récupérées dans les ensembles de données massifs utilisés pour entraîner les LLM. Même les publicités personnalisées sur les sites internet ou dans les applications sont propulsées par une IA entraînée sur vos préférences de navigation et d’achat.

Cette commodité coûte votre respect de la vie privée et peut avoir un impact profond sur votre vie. Vingt photos prises sur le fil social de votre enfant suffisent pour construire une vidéo deepfake de 30 secondes qui peut être utilisée pour le chantage, le harcèlement ou le vol d’identité.

Voici ce qui est en jeu lorsque l’IA a accès à vos données personnelles et ce que vous pouvez faire pour protéger votre respect de la vie privée en ligne.

Comment l’IA met-elle en danger votre respect de la vie privée ?

L’IA peut éroder le respect de la vie privée en collectant trop, en déduisant trop, en partageant trop.

Vos données personnelles peuvent être collectées

Les systèmes d’IA deviennent plus précis en s’entraînant sur des quantités massives de données, souvent récupérées à partir de sources accessibles au public, telles que vos publications Facebook(nouvelle fenêtre), vos photos Flickr(nouvelle fenêtre) ou vos fils de discussion Reddit(nouvelle fenêtre). Les publications occasionnelles sur les réseaux sociaux, les photos de famille et les informations de profil — contenant souvent des données sensibles et partagées à l’origine pour des raisons personnelles ou sociales — ont été incluses dans des ensembles de données utilisés pour entraîner des LLM et des systèmes de reconnaissance faciale valant des milliards de dollars. Cela se produit parce que la Big Tech traite le contenu en ligne comme étant librement disponible pour l’utilisation par l’IA, sans consentement explicite ni égard pour la propriété intellectuelle.

Vous pouvez être ré-identifié

Les entreprises technologiques affirment que vos données personnelles ne peuvent pas être remontées jusqu’à vous une fois qu’elles ont été désidentifiées ou pseudo-anonymisées, ce qui signifie que les identifiants évidents comme les noms ou les numéros de téléphone sont supprimés. Mais cette protection est fragile, car les ensembles de données anonymisés peuvent être ré-identifiés en les recoupant avec d’autres sources de données, telles que les profils de réseaux sociaux ou les traces de géolocalisation.

Par exemple, des utilisateurs de Netflix ont été ré-identifiés(nouvelle fenêtre) en comparant leurs notes de films anonymes avec des informations IMDb. Une étude(nouvelle fenêtre) montre que presque chaque Américain peut être identifié dans n’importe quel ensemble de données avec seulement 15 marqueurs démographiques. En ajoutant la puissance de correspondance de modèles de l’IA, la ré-identification est devenue plus rapide, plus facile et accessible à tous.

Vos données peuvent être partagées avec des tiers

Lorsque vous utilisez des systèmes d’IA, vos données ne restent pas toujours avec l’entreprise auprès de laquelle vous vous êtes inscrit. Elles peuvent être partagées avec des partenaires ou des processeurs tiers — dont certains dont vous n’avez probablement jamais entendu parler — qui peuvent gérer vos données selon leurs propres conditions et normes de sécurité.

À ce stade, le respect de la vie privée devient un exercice de confiance. Vous ne comptez plus seulement sur l’entreprise que vous connaissez pour protéger vos informations, mais sur toute une chaîne d’acteurs externes inconnus, chacun avec sa propre infrastructure, ses politiques et ses vulnérabilités. Chaque main qui touche vos données élargit la surface d’attaque, et la responsabilité est floue.

Par exemple, une fuite de données impliquant un partenaire OpenAI a conduit à l’exposition des données des utilisateurs de l’API, montrant comment l’accès tiers peut devenir le maillon faible du système.

Les demandes de suppression de données peuvent ne pas fonctionner

Une fois que vos données entraînent un modèle d’IA, les retirer est presque impossible car elles façonnent le comportement global du modèle. Le désapprentissage automatique — des techniques pour faire oublier un modèle — en est encore à ses débuts, donc la seule option aujourd’hui serait de réentraîner le modèle. Et même si une entreprise prétend avoir honoré votre demande de suppression de données, il n’y a pratiquement aucun moyen de le confirmer(nouvelle fenêtre).

D’autres personnes peuvent voir vos discussions privées

Les LLM tels que ChatGPT(nouvelle fenêtre), Meta AI(nouvelle fenêtre) et Grok(nouvelle fenêtre) ont exposé des conversations privées via leurs fonctionnalités de partage, les discussions étant indexées par les moteurs de recherche et rendues publiquement découvrables. Les plateformes n’ont pas été assez transparentes sur ce risque, laissant les utilisateurs inconscients que ce qui semblait être un échange privé pouvait finir visible par n’importe qui sur Internet.

Vous pouvez être traité injustement

Si les données utilisées par les systèmes d’IA pour apprendre des modèles contiennent des biais cachés — comme des inégalités historiques ou des ensembles de données incomplets — l’IA peut renforcer ou amplifier ces modèles. Les enjeux sont plus élevés avec les systèmes d’IA non privés de la Big Tech, qui sont à source fermée et fonctionnent comme des boîtes noires qui ne peuvent pas être examinées de manière indépendante. Ces systèmes peuvent utiliser des attributs sensibles comme la race, le genre ou le code postal pour prendre des décisions automatisées dans la police prédictive(nouvelle fenêtre), l’embauche(nouvelle fenêtre), les soins de santé(nouvelle fenêtre) ou la notation de crédit(nouvelle fenêtre).

Le ciblage publicitaire devient plus précis

Bien que l’IA non privée rende les publicités plus intelligentes en permettant un hyper-ciblage, elle envahit souvent le respect de la vie privée de toute votre famille. Par exemple, Publicis, un courtier en données et la plus grande entreprise publicitaire au monde, prétend profiler 2,3 milliards de personnes et suivre des informations comme les préférences familiales et les revenus(nouvelle fenêtre) pour décider de les cibler avec des produits économiques ou premium.

Avec les chatbots IA remplaçant la recherche traditionnelle, les publicités nous suivent dans ce nouvel espace. Par exemple, Perplexity intègre des publicités dans les réponses générées par l’IA(nouvelle fenêtre) et a fait une offre de 34,5 milliards de dollars pour acheter Google Chrome — une initiative visant à obtenir l’accès aux plus de 3 milliards d’utilisateurs du navigateur et aux données comportementales intimes qui l’accompagnent.

L’espace de stockage cloud peut exposer vos données

Les fournisseurs d’espace de stockage cloud sans chiffrement de bout en bout (E2EE) peuvent accéder aux photos, documents et fichiers sensibles que vous importez. Ils peuvent également utiliser ces données pour alimenter des outils d’IA, générer des informations sur vous ou montrer des publicités personnalisées.

Google Drive, par exemple, conserve l’accès à vos données et les utilise pour des fonctionnalités d’IA comme la vérification orthographique et la saisie semi-automatique dans Google Docs. Si Gemini, l’assistant IA de Google, reste étroitement intégré à Google Workspace, les requêtes que vous faites sur vos fichiers Drive pourraient également alimenter l’entraînement de l’IA.

De même, Microsoft a annoncé que Word, Excel et PowerPoint auront bientôt l’enregistrement automatique sur OneDrive par défaut, un autre service sans E2EE où l’utilisation future de vos données pour la publicité ou l’entraînement de l’IA reste incertaine.

L’IA peut faire des erreurs

Les systèmes automatisés pourraient scanner vos communications privées et les signaler comme suspectes. La loi Chat Control proposée par l’UE obligerait les services de messagerie comme WhatsApp et Signal à utiliser l’IA pour scanner chaque message privé et chaque photo afin de détecter le matériel pédopornographique (CSAM).

Mais cela signifie surveiller les conversations de tout le monde, pas seulement celles des criminels présumés. Et l’histoire montre à quel point l’IA peut facilement faire des erreurs. Le compte Google d’un père, par exemple, a été résilié(nouvelle fenêtre) et signalé aux autorités après avoir envoyé une photo de son enfant à un médecin. Ce qui devrait rester entre vous et votre médecin, ou vous et votre famille, pourrait soudainement être exposé aux entreprises technologiques et aux forces de l’ordre.

N’importe qui peut créer des deepfakes

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Les acteurs malveillants exploitent les deepfakes pour le vol d’identité, la fraude, le chantage ou les atteintes à la réputation — et les risques s’étendent aux enfants. En 2019, des criminels ont utilisé un audio deepfake pour imiter la voix d’un PDG(nouvelle fenêtre) et ont trompé un employé pour qu’il transfère 220 000 €. Les risques s’étendent aussi aux enfants. Dans un incident, un prédateur a créé une image deepfake d’un enfant de 14 ans(nouvelle fenêtre) pour extorquer de l’argent en menaçant de la partager.

Comment garder vos données privées face aux systèmes d’IA

Il existe de nombreuses préoccupations concernant le respect de la vie privée avec les systèmes d’IA, en particulier les modèles non privés et à source fermée gérés par la Big Tech. Et bien que vous ne puissiez pas empêcher complètement ces systèmes de récupérer ou de mal utiliser vos données une fois qu’elles sont diffusées, vous pouvez réduire votre empreinte, exiger des comptes et choisir une IA axée sur le respect de la vie privée qui n’exploite pas vos données. Voici ce que vous pouvez faire :

  • Sur les réseaux sociaux, rendez vos profils et publications privés, supprimez les anciennes importations, retirez les données EXIF des photos avant de les partager, et évitez de partager des informations identifiables — comme les adresses, les noms complets des enfants ou les écoles qu’ils fréquentent. Découvrez-en plus sur comment gérer Internet pour votre famille.
  • Vérifiez les paramètres de confidentialité de vos applications. Par exemple, l’IA Meta pourrait scanner les photos de votre pellicule et les vidéos sur l’application Facebook pour Android et iOS.
  • Protégez-vous contre les deepfakes en floutant ou en masquant les visages de votre famille avant la publication de photos en ligne.
  • Masquez votre empreinte numérique en utilisant un réseau privé virtuel (VPN)(nouvelle fenêtre) pour masquer votre adresse IP, et utilisez des alias pour protéger votre adresse e-mail lors de la publication d’informations sensibles que vous ne voudriez pas voir remontées jusqu’à vous.
  • Utilisez des services axés sur le respect de la vie privée qui ne monétisent pas vos données, tels que Signal pour la messagerie sécurisée et Brave ou DuckDuckGo pour la navigation privée.
  • Pour stocker en toute sécurité vos fichiers les plus sensibles, y compris les photos privées et les documents confidentiels, utilisez Proton Drive pour un espace de stockage cloud chiffré de bout en bout. Contrairement aux plateformes qui peuvent exposer un contenu supposé privé, Drive ne scanne pas, n’indexe pas et n’utilise pas vos données pour l’entraînement de l’IA — et elles ne peuvent être vues par personne d’autre, même lorsque vous choisissez de les partager. Garder vos photos vraiment privées signifie aussi qu’elles ne finiront pas en ligne où elles pourraient être mal utilisées pour créer des deepfakes.
  • Refusez l’entraînement de l’IA chaque fois que possible, comme sur Gemini, ChatGPT(nouvelle fenêtre), Claude(nouvelle fenêtre) ou l’IA Meta. Les politiques peuvent changer du jour au lendemain avec peu d’avertissement, donc si vous voulez les avantages à la fois de l’IA et du respect de la vie privée, passez à Lumo — notre assistant IA axé sur le respect de la vie privée(nouvelle fenêtre) qui ne conserve pas de journaux et ne s’entraîne pas sur vos données.

Des réglementations plus strictes sur le respect de la vie privée de l’IA, telles que l’IA Act de l’UE(nouvelle fenêtre), seront essentielles pour redonner le pouvoir aux utilisateurs d’Internet. D’ici là, la meilleure défense est d’être attentif à ce que vous partagez en ligne, d’exiger des comptes de la part des entreprises construisant ces systèmes, et de choisir des outils d’IA transparents(nouvelle fenêtre) qui respectent le respect de la vie privée dès la conception.