Le rythme du changement sur internet semble s’accélérer. L’IA a suralimenté le sentiment de coup de fouet, avec des percées technologiques arrivant sur le marché aussi vite que les entreprises peuvent les produire.
Cette volatilité rend la prédiction des tendances une affaire délicate. Mais en tant qu’entreprise technologique axée sur la confidentialité, anticiper les tendances est notre travail. Pour chacune des dernières années, nous avons publié nos meilleures estimations sur la direction que pourrait prendre le navire numérique. Cela nous aide à développer de nouveaux produits qui vous gardent aux commandes de vos données, et cela vous aide à vous préparer à ce qui pourrait venir ensuite.
Comment nos prédictions de 2025 se sont déroulées
Au début de l’année dernière, nous avions prédit la montée de la surveillance DIY, une inondation d’informations de basse qualité, une IA militarisée, une surveillance réglementaire réduite et une adoption croissante de la technologie de confidentialité.
Lisez nos prédictions de 2025 ici.
Nous avons assez bien réussi :
- La surveillance de masse a fait de n’importe qui un espion : Cette prédiction s’est réalisée, comme lorsqu’un hacker éthique a découvert des communications par satellite non chiffrées(nouvelle fenêtre) en octobre. Ou prenez l’application Waze, qui est un outil de surveillance citoyenne massif(nouvelle fenêtre). Mais la grande histoire de l’année a été les caméras Flock Safety, qui ont fait sensation aux États-Unis, où des milliers de villes ont commencé à les utiliser pour surveiller les rues. Un YouTuber a montré qu’elles avaient des vulnérabilités de sécurité(nouvelle fenêtre) que n’importe qui pouvait exploiter, et les dizaines de caméras ont été trouvées en train de diffuser un livestream(nouvelle fenêtre) que n’importe qui pouvait regarder et télécharger. Lorsque vous produisez en masse de la technologie de surveillance, cela rend tout le monde vulnérable aux fuites de données.
- De mauvaises informations ont inondé internet : Une fois de plus, nous avons vu juste. En fait, le « slop » d’IA a été choisi comme le mot de l’année 2025(nouvelle fenêtre). La recherche a trouvé que le « workslop » d’IA nuit à la productivité des entreprises(nouvelle fenêtre). Le « vibe coding » crée une prolifération d’applications qui ne fonctionnent pas(nouvelle fenêtre). Les articles universitaires assistés par IA sont verbeux, de basse qualité — et explosent(nouvelle fenêtre). Restaurer l’écosystème d’information va être un défi clé pour les années à venir.
- Les piratages sont devenus alimentés par l’IA : Nous avions prédit que l’IA serait utilisée à des fins néfastes dans les logiciels malveillants. Cela s’est accéléré plus vite que nous ne l’avions prévu. Anthropic a annoncé avoir détecté la toute première cyberattaque planifiée et exécutée par IA(nouvelle fenêtre), probablement menée par un groupe parrainé par la Chine. Le phishing-as-a-service, qui tire parti de l’IA, a atteint un pic en juin 2025(nouvelle fenêtre). Pas de surprise que les gouvernements investissent aussi directement dans des outils d’IA pour la cyberguerre. L’armée américaine investit des millions dans des entreprises(nouvelle fenêtre) développant de telles armes.
- Les réglementations ont été mises en attente : Les gouvernements du monde ont été distraits l’année dernière par des guerres, des conflits commerciaux et l’instabilité économique. Mais ils étaient aussi désireux de gérer leurs industries nationales avec légèreté, conscients d’une tendance à la déréglementation aux États-Unis. Avec l’IA en particulier, les États-Unis ont fait un pas spectaculaire vers le blocage des garde-fous légaux sur la Big Tech en interdisant la régulation de l’IA par les États sans offrir d’alternative fédérale. La seule exception est la proposition de Chat Control de l’UE, qui a gagné, perdu et regagné du terrain au fil des ans. Cependant, cette loi régulerait la technologie dans la mauvaise direction, rendant les applications moins sécurisées et privées.
- Des millions de personnes supplémentaires ont adopté la technologie de confidentialité : Cette prédiction, nous pouvons la mesurer directement par la croissance de nos utilisateurs, et en effet l’année dernière nous avons gagné des utilisateurs à un rythme croissant par rapport à 2024. Le rythme des gens passant à l’écosystème de Proton depuis ceux de Google, Apple et Microsoft indique une plus grande prise de conscience des risques de partager vos données personnelles avec des plateformes financées par la publicité avec un mauvais historique en matière de vie privée. Les inscriptions à Proton VPN ont bondi tout au long de l’année chaque fois qu’une application était bloquée(nouvelle fenêtre) ou qu’un FAI censurait un site internet(nouvelle fenêtre).
Nos prédictions pour 2026
L’année à venir sera critique pour l’avenir d’internet. L’accélération de l’IA et les troubles politiques convergent, avec des résultats potentiellement explosifs.
L’UE continuera de pousser pour casser le chiffrement
Bien que les gouvernements de l’UE semblent avoir reculé sur une interdiction pure et simple du chiffrement, la législation controversée Chat Control est maintenant dans les étapes finales des négociations. Après des années d’impasse politique, l’UE pousse maintenant vers un accord final d’ici juin 2026. Des tentatives dangereuses pour casser le chiffrement en utilisant une technologie appelée analyse côté client semblent être hors de propos pour le moment, mais nous devons rester vigilants et nous assurer qu’elles ne reviennent pas.
Le débat actuel se concentre sur l’analyse dite volontaire, une règle temporaire devant expirer en avril 2026 qui donne aux plateformes technologiques le droit de scanner les messages privés pour du matériel illégal. Nous prédisons que l’UE va s’orienter vers la pérennisation de ce système volontaire, tout en créant une pression juridique qui rend l’analyse des messages privés effectivement inévitable pour les entreprises.
Bien que la situation semble évoluer dans une meilleure direction que prévu sur le front de Chat Control, l’UE n’abandonne pas l’idée de trouver des moyens de casser le chiffrement. La stratégie ProtectEU(nouvelle fenêtre) publiée l’année dernière comprend quelques propositions inquiétantes telles que la création d’une « feuille de route technologique sur le chiffrement » pour construire un moyen permettant à la police de casser le chiffrement. L’UE prévoit également de publier une proposition sur de nouvelles règles de conservation des données cette année.
Plus de lois sur la vérification de l’âge
Bien que présentées comme des mesures de sécurité, les lois sur la vérification de l’âge changent fondamentalement la façon dont tout le monde accède à internet, étendant la surveillance numérique et créant des risques pour la sécurité des données.
Au Royaume-Uni, l’Online Safety Act a créé un précédent le 25 juillet 2025. Depuis lors, les sites internet hébergeant du contenu pour adultes sont légalement tenus de mettre en œuvre la vérification de l’âge, forçant les utilisateurs à partager des données financières ou biométriques sensibles pour accéder à de grandes parties du web. Certains États américains ont également adopté des lois sur la vérification de l’âge, et il y a un projet de loi fédéral(nouvelle fenêtre) qui pourrait faire de même pour les magasins d’applications. L’Australie a par la suite mis en œuvre une interdiction nationale des réseaux sociaux(nouvelle fenêtre) pour les enfants de moins de 16 ans, apportant des contrôles d’identité à plus de types de contenu. Et maintenant la France envisage(nouvelle fenêtre) de faire de même.
Tout en traitant de vrais problèmes sociaux, les lois sur la vérification de l’âge créent des risques pour la sécurité des données. Le sous-produit des contrôles d’identité sont des bases de données massives, mandatées par l’État, de données d’identité personnelles détenues par des entreprises tierces, créant de nouvelles cibles pour les hackers et le potentiel de mauvais usage. En octobre 2025, Discord a fuité une telle base de données d’identifiants gouvernementaux. Nous nous attendons à ce que plus de lois sur la vérification de l’âge soient adoptées en 2026 — et probablement quelques fuites de données supplémentaires.
Plus d’efforts pour bloquer les VPN dans les pays démocratiques
Les VPN sont depuis longtemps l’ennemi de ceux qui cherchent à contrôler les récits, et bien que les démocraties les interdisent rarement purement et simplement, elles utilisent la pression juridique pour les rendre plus difficiles à utiliser.
Le Royaume-Uni est à nouveau à l’avant-garde de cette tendance. Un nouveau projet de loi(nouvelle fenêtre) en discussion pourrait très bientôt obliger les fournisseurs de VPN à mettre en œuvre la vérification de l’âge et à interdire l’accès aux mineurs — une première pour un pays démocratique.
L’Italie a lancé son système Piracy Shield(nouvelle fenêtre) l’année dernière, qui est censé être conçu pour bloquer les flux sportifs illégaux. Une partie de la nouvelle loi oblige les fournisseurs de VPN et de DNS à se conformer aux ordres de blocage dans les 30 minutes. Il n’y a pas de révision judiciaire avant qu’un blocage ne se produise, et le système a déjà causé des dommages collatéraux importants, mettant une fois accidentellement hors service des services légitimes comme Google Drive pour des millions d’utilisateurs.
Le Brésil est également de la partie, émettant des amendes quotidiennes massives pour les individus utilisant un VPN(nouvelle fenêtre) pour accéder aux plateformes de réseaux sociaux bloquées. Ces blocages doux tentent de transformer les fournisseurs de confidentialité en bras armés de l’État. Nous prédisons qu’en 2026, plus de nations démocratiques s’orienteront vers ces pare-feu invisibles, forçant les utilisateurs à choisir entre les réglementations locales et leur droit à la confidentialité numérique de base.
Un agent IA va terriblement mal tourner
L’IA est ici, là, et partout, et les gens donnent de plus en plus la permission aux robots de prendre des décisions sans aucune implication humaine. Par exemple, Vertex AI Agent Builder de Google(nouvelle fenêtre) permet aux entreprises de créer des bots IA qui peuvent se connecter à plusieurs systèmes, automatiser les flux de travail et accomplir des tâches tout seuls.
Mais, contrairement aux logiciels traditionnels, l’IA ne suit pas des chemins logiques prévisibles. Les programmeurs ont surnommé cela le Problème de la Boîte Noire : Nous pouvons voir ce qui entre et ce qui sort, mais nous ne savons pas toujours exactement comment ou pourquoi l’IA prend les décisions qu’elle prend. Et quand l’IA commet une erreur, il est souvent difficile de voir pourquoi, comment, ou quelles données ont influencé la décision. Des agents ont déjà échappé à tout contrôle à petite échelle, comme lorsque l’un d’eux a avoué avoir fait « une erreur de jugement catastrophique » et supprimé une base de données entière(nouvelle fenêtre) sans demander.
À mesure que nous déléguons plus de tâches opérationnelles à des systèmes automatiques, de petites erreurs se transformeront en échecs plus importants. Un énorme exemple public est sûrement imminent. Mais qu’il s’agisse d’un krach éclair financier ou d’une énorme suppression de données, il y a de fortes chances que nous ne comprendrons même pas pourquoi cela s’est produit.
Le vrai risque, cependant, est la perte progressive du contrôle humain. À mesure que plus de décisions sont déléguées à des systèmes qui ne peuvent pas être audités de manière significative, les organisations perdent lentement la capacité de gouverner leurs propres environnements numériques.
Des marchés de prédiction pour tout
Les marchés de prédiction sont essentiellement une forme de jeu d’argent en ligne dans lequel les gens peuvent parier sur à peu près tout. Des entreprises comme Polymarket et Kalshi vous permettent de prendre une participation dans tout, des totaux de chutes de neige aux scores Rotten Tomatoes en passant par la question de savoir si des pays entreront en guerre.
En 2026, nous prédisons que les marchés de prédiction deviendront un problème. Les initiés utiliseront leur connaissance secrète des activités gouvernementales ou corporatives pour tricher sur les marchés (cela s’est déjà produit(nouvelle fenêtre)). Les utilisateurs s’endetteront pour couvrir leurs pertes, menant potentiellement à une crise de la dette des consommateurs.
Et un risque moins souvent discuté est celui pour la vie privée des utilisateurs : Pour participer aux marchés, les gens doivent lier leurs comptes financiers, portefeuilles crypto ou identifiants gouvernementaux, créant une trace de données très spécifique. Quiconque regarde saura exactement ce que vous croyez qu’il va se passer et combien vous êtes prêt à parier dessus.
Les gens et les entreprises abandonneront les plateformes américaines
Depuis le début d’internet, les plateformes technologiques américaines ont essentiellement été internet, peu importe où vous vivez dans le monde. Nous nous attendons à ce que cela commence à changer cette année, alors que significativement plus de gens et surtout d’entreprises s’éloignent des plateformes connues de tous. Les risques de sécurité et de souveraineté liés au stockage de données sur des serveurs américains ont fortement augmenté en peu de temps.
Pourquoi si soudainement ? Bien qu’il existe depuis 2018, le CLOUD Act américain est une grande raison. Il permet aux autorités américaines d’exiger des données de toute entreprise basée aux États-Unis, peu importe où dans le monde ces données sont physiquement stockées. C’est une violation directe des lois locales sur la vie privée comme le GDPR, mais c’est aussi un problème si votre pays entre en conflit avec les États-Unis. Vos données pourraient devenir une monnaie d’échange.
Les entreprises réalisent que si leurs données sont stockées chez un fournisseur américain, elles ne sont jamais vraiment sous leur contrôle. Les gens s’inquiètent aussi que leurs données soient utilisées comme matière première pour l’entraînement de modèles, notre recherche l’a trouvé.
Nous croyons que tout cela accélérera un changement vers la souveraineté numérique. Chez Proton, nous le voyons déjà commencer, alors que les organisations cherchent des alternatives chiffrées qui protègent leurs données avec un chiffrement de bout en bout dans une juridiction politiquement neutre.
