Le rythme du changement sur internet semble s’accélérer. L’IA a suralimenté le sentiment de coup de fouet, avec des percées technologiques arrivant sur le marché aussi vite que les entreprises peuvent les produire.

Cette volatilité rend la prédiction des tendances une affaire délicate. Mais en tant qu’entreprise technologique axée sur la confidentialité, anticiper les tendances est notre travail. Pour chacune des dernières années, nous avons publié nos meilleures estimations sur la direction que pourrait prendre le navire numérique. Cela nous aide à développer de nouveaux produits qui vous gardent aux commandes de vos données, et cela vous aide à vous préparer à ce qui pourrait venir ensuite.

Comment nos prédictions de 2025 se sont déroulées

Au début de l’année dernière, nous avions prédit la montée de la surveillance DIY, une inondation d’informations de basse qualité, une IA militarisée, une surveillance réglementaire réduite et une adoption croissante de la technologie de confidentialité.

Lisez nos prédictions de 2025 ici.

Nous avons assez bien réussi :

Nos prédictions pour 2026

L’année à venir sera critique pour l’avenir d’internet. L’accélération de l’IA et les troubles politiques convergent, avec des résultats potentiellement explosifs.

L’UE continuera de pousser pour casser le chiffrement

Bien que les gouvernements de l’UE semblent avoir reculé sur une interdiction pure et simple du chiffrement, la législation controversée Chat Control est maintenant dans les étapes finales des négociations. Après des années d’impasse politique, l’UE pousse maintenant vers un accord final d’ici juin 2026. Des tentatives dangereuses pour casser le chiffrement en utilisant une technologie appelée analyse côté client semblent être hors de propos pour le moment, mais nous devons rester vigilants et nous assurer qu’elles ne reviennent pas.

Le débat actuel se concentre sur l’analyse dite volontaire, une règle temporaire devant expirer en avril 2026 qui donne aux plateformes technologiques le droit de scanner les messages privés pour du matériel illégal. Nous prédisons que l’UE va s’orienter vers la pérennisation de ce système volontaire, tout en créant une pression juridique qui rend l’analyse des messages privés effectivement inévitable pour les entreprises.

Bien que la situation semble évoluer dans une meilleure direction que prévu sur le front de Chat Control, l’UE n’abandonne pas l’idée de trouver des moyens de casser le chiffrement. La stratégie ProtectEU(nouvelle fenêtre) publiée l’année dernière comprend quelques propositions inquiétantes telles que la création d’une « feuille de route technologique sur le chiffrement » pour construire un moyen permettant à la police de casser le chiffrement. L’UE prévoit également de publier une proposition sur de nouvelles règles de conservation des données cette année.

Plus de lois sur la vérification de l’âge

Bien que présentées comme des mesures de sécurité, les lois sur la vérification de l’âge changent fondamentalement la façon dont tout le monde accède à internet, étendant la surveillance numérique et créant des risques pour la sécurité des données.

Au Royaume-Uni, l’Online Safety Act a créé un précédent le 25 juillet 2025. Depuis lors, les sites internet hébergeant du contenu pour adultes sont légalement tenus de mettre en œuvre la vérification de l’âge, forçant les utilisateurs à partager des données financières ou biométriques sensibles pour accéder à de grandes parties du web. Certains États américains ont également adopté des lois sur la vérification de l’âge, et il y a un projet de loi fédéral(nouvelle fenêtre) qui pourrait faire de même pour les magasins d’applications. L’Australie a par la suite mis en œuvre une interdiction nationale des réseaux sociaux(nouvelle fenêtre) pour les enfants de moins de 16 ans, apportant des contrôles d’identité à plus de types de contenu. Et maintenant la France envisage(nouvelle fenêtre) de faire de même.

Tout en traitant de vrais problèmes sociaux, les lois sur la vérification de l’âge créent des risques pour la sécurité des données. Le sous-produit des contrôles d’identité sont des bases de données massives, mandatées par l’État, de données d’identité personnelles détenues par des entreprises tierces, créant de nouvelles cibles pour les hackers et le potentiel de mauvais usage. En octobre 2025, Discord a fuité une telle base de données d’identifiants gouvernementaux. Nous nous attendons à ce que plus de lois sur la vérification de l’âge soient adoptées en 2026 — et probablement quelques fuites de données supplémentaires.

Plus d’efforts pour bloquer les VPN dans les pays démocratiques

Les VPN sont depuis longtemps l’ennemi de ceux qui cherchent à contrôler les récits, et bien que les démocraties les interdisent rarement purement et simplement, elles utilisent la pression juridique pour les rendre plus difficiles à utiliser.

Le Royaume-Uni est à nouveau à l’avant-garde de cette tendance. Un nouveau projet de loi(nouvelle fenêtre) en discussion pourrait très bientôt obliger les fournisseurs de VPN à mettre en œuvre la vérification de l’âge et à interdire l’accès aux mineurs — une première pour un pays démocratique.

L’Italie a lancé son système Piracy Shield(nouvelle fenêtre) l’année dernière, qui est censé être conçu pour bloquer les flux sportifs illégaux. Une partie de la nouvelle loi oblige les fournisseurs de VPN et de DNS à se conformer aux ordres de blocage dans les 30 minutes. Il n’y a pas de révision judiciaire avant qu’un blocage ne se produise, et le système a déjà causé des dommages collatéraux importants, mettant une fois accidentellement hors service des services légitimes comme Google Drive pour des millions d’utilisateurs.

Le Brésil est également de la partie, émettant des amendes quotidiennes massives pour les individus utilisant un VPN(nouvelle fenêtre) pour accéder aux plateformes de réseaux sociaux bloquées. Ces blocages doux tentent de transformer les fournisseurs de confidentialité en bras armés de l’État. Nous prédisons qu’en 2026, plus de nations démocratiques s’orienteront vers ces pare-feu invisibles, forçant les utilisateurs à choisir entre les réglementations locales et leur droit à la confidentialité numérique de base.

Un agent IA va terriblement mal tourner

L’IA est ici, là, et partout, et les gens donnent de plus en plus la permission aux robots de prendre des décisions sans aucune implication humaine. Par exemple, Vertex AI Agent Builder de Google(nouvelle fenêtre) permet aux entreprises de créer des bots IA qui peuvent se connecter à plusieurs systèmes, automatiser les flux de travail et accomplir des tâches tout seuls.

Mais, contrairement aux logiciels traditionnels, l’IA ne suit pas des chemins logiques prévisibles. Les programmeurs ont surnommé cela le Problème de la Boîte Noire : Nous pouvons voir ce qui entre et ce qui sort, mais nous ne savons pas toujours exactement comment ou pourquoi l’IA prend les décisions qu’elle prend. Et quand l’IA commet une erreur, il est souvent difficile de voir pourquoi, comment, ou quelles données ont influencé la décision. Des agents ont déjà échappé à tout contrôle à petite échelle, comme lorsque l’un d’eux a avoué avoir fait « une erreur de jugement catastrophique » et supprimé une base de données entière(nouvelle fenêtre) sans demander.

À mesure que nous déléguons plus de tâches opérationnelles à des systèmes automatiques, de petites erreurs se transformeront en échecs plus importants. Un énorme exemple public est sûrement imminent. Mais qu’il s’agisse d’un krach éclair financier ou d’une énorme suppression de données, il y a de fortes chances que nous ne comprendrons même pas pourquoi cela s’est produit.

Le vrai risque, cependant, est la perte progressive du contrôle humain. À mesure que plus de décisions sont déléguées à des systèmes qui ne peuvent pas être audités de manière significative, les organisations perdent lentement la capacité de gouverner leurs propres environnements numériques.

Des marchés de prédiction pour tout

Les marchés de prédiction sont essentiellement une forme de jeu d’argent en ligne dans lequel les gens peuvent parier sur à peu près tout. Des entreprises comme Polymarket et Kalshi vous permettent de prendre une participation dans tout, des totaux de chutes de neige aux scores Rotten Tomatoes en passant par la question de savoir si des pays entreront en guerre.

En 2026, nous prédisons que les marchés de prédiction deviendront un problème. Les initiés utiliseront leur connaissance secrète des activités gouvernementales ou corporatives pour tricher sur les marchés (cela s’est déjà produit(nouvelle fenêtre)). Les utilisateurs s’endetteront pour couvrir leurs pertes, menant potentiellement à une crise de la dette des consommateurs.

Et un risque moins souvent discuté est celui pour la vie privée des utilisateurs : Pour participer aux marchés, les gens doivent lier leurs comptes financiers, portefeuilles crypto ou identifiants gouvernementaux, créant une trace de données très spécifique. Quiconque regarde saura exactement ce que vous croyez qu’il va se passer et combien vous êtes prêt à parier dessus.

Les gens et les entreprises abandonneront les plateformes américaines

Depuis le début d’internet, les plateformes technologiques américaines ont essentiellement été internet, peu importe où vous vivez dans le monde. Nous nous attendons à ce que cela commence à changer cette année, alors que significativement plus de gens et surtout d’entreprises s’éloignent des plateformes connues de tous. Les risques de sécurité et de souveraineté liés au stockage de données sur des serveurs américains ont fortement augmenté en peu de temps.

Pourquoi si soudainement ? Bien qu’il existe depuis 2018, le CLOUD Act américain est une grande raison. Il permet aux autorités américaines d’exiger des données de toute entreprise basée aux États-Unis, peu importe où dans le monde ces données sont physiquement stockées. C’est une violation directe des lois locales sur la vie privée comme le GDPR, mais c’est aussi un problème si votre pays entre en conflit avec les États-Unis. Vos données pourraient devenir une monnaie d’échange.

Les entreprises réalisent que si leurs données sont stockées chez un fournisseur américain, elles ne sont jamais vraiment sous leur contrôle. Les gens s’inquiètent aussi que leurs données soient utilisées comme matière première pour l’entraînement de modèles, notre recherche l’a trouvé.

Nous croyons que tout cela accélérera un changement vers la souveraineté numérique. Chez Proton, nous le voyons déjà commencer, alors que les organisations cherchent des alternatives chiffrées qui protègent leurs données avec un chiffrement de bout en bout dans une juridiction politiquement neutre.