Le « problème d’alignement » de l’IA postule qu’à mesure que les systèmes d’IA deviennent plus intelligents, il deviendra plus difficile d’aligner leurs objectifs avec ceux de leurs développeurs. Un système d’IA pourrait, en théorie, « devenir incontrôlable », concevant des stratégies indésirables et imprévisibles pour atteindre un objectif.

Le maximisateur de trombones(nouvelle fenêtre) est une expérience de pensée qui explore ce concept : Si une IA superintelligente était chargée de l’objectif unique de créer des trombones, elle pourrait réquisitionner les ressources du monde pour accomplir son objectif à tout prix, transformant tout en trombones. Finalement, elle pourrait même réaliser que les humains, essayant d’arrêter l’IA, étaient une distraction et nous éliminer : clairement un désalignement entre les intérêts de l’IA et les intérêts humains.

Bien qu’évidemment extravagant, le problème du trombone est devenu un point de référence de la culture pop pour l’IA. Dans la vraie vie, des contraintes et des règles empêchent les systèmes d’aller au-delà de leurs objectifs prévus. Mais de nombreux fondateurs et PDG de la Big Tech utilisent cette hypothèse pour créer du buzz autour de leurs grands modèles de langage (LLMs). Les chatbots ont-ils vraiment le pouvoir de rendre l’humanité éteinte ? Non. Mais cela les rend impressionnants et, plus important encore, cela dissimule le vrai problème d’alignement de l’IA qui nous nuit en ce moment même : Les LLMs de la Big Tech envahissent notre vie privée, volent nos données et dévalorisent notre économie de l’information. C’est à la fois une stratégie de vente et une diversion, conçue pour nous faire regarder vers l’avenir au lieu de regarder le contrôle que nous cédons dans le présent.

Sommes-nous en route pour un avenir dystopique ?

Lorsque les fondateurs font des déclarations larges et spéculatives sur ce que leurs produits « pourraient » faire, c’est principalement une méthode pour créer des opportunités commerciales et créer de la valeur pour leurs actionnaires. Les LLMs et l’IA générative sont des produits commerciaux. Il est dans l’intérêt de leurs propriétaires que vous croyiez que leur outil est révolutionnaire.

Les médias sont désireux de propulser des histoires sensationnelles, telles que le potentiel des outils d’IA pour aider les utilisateurs à créer des armes biologiques(nouvelle fenêtre) ou à mentir aux développeurs(nouvelle fenêtre), comme si l’IA générative avait son propre esprit (ce n’est pas le cas). Il est facile d’obtenir des clics avec des titres sur des opinions extrêmes ou infondées, mais de telles vues ne sont pas une représentation exacte de la technologie d’IA qui existe aujourd’hui.

Au lieu de cela, les LLMs sont simplement des machines de prédiction de mots. Ce sont des programmes informatiques qui digèrent des quantités massives de texte, « apprenant » des modèles de langage humain, et construisent ensuite des réponses probabilistes aux entrées des utilisateurs. Ils n’ont pas de pensées propres, et ils ne comprennent même pas le langage. En fait, ils doivent d’abord convertir les mots en nombres avant de pouvoir traiter l’information. Les limitations des LLMs ont été bien documentées par Gary Marcus(nouvelle fenêtre) et de nombreux autres chercheurs.

De nouveaux outils pour le capitalisme de surveillance

Les LLMs ne causeront pas l’apocalypse, mais ils sont assez bons à autre chose : collecter des informations extrêmement nuancées sur vous. C’est pourquoi les LLMs sont une mine d’or de données pour les entreprises et une cible attrayante pour les criminels.

Les LLMs alimentent des chatbots tels que ChatGPT, Copilot, Claude et Grok, qui fonctionnent comme des moteurs de recherche. En apparence, vous pouvez utiliser ces chatbots pour tout ce que vous voulez : Ils peuvent vous aider à créer des listes de courses, organiser votre calendrier, écrire des e-mails ou écrire du code. Ils sont votre assistant personnel, votre professeur, votre confident, ou quoi que ce soit d’autre que vous leur demandez d’être.

Des centaines de millions de personnes dans le monde partagent déjà leurs questions, idées, pensées et secrets les plus profonds avec des chatbots. Elles sont encouragées à le faire par les entreprises qui les gèrent : Sam Altman, PDG d’Open AI, a noté récemment(nouvelle fenêtre) que la Gen Z « ne prend pas vraiment de décisions de vie sans demander à ChatGPT ce qu’elle devrait faire. » Appeler et encourager ce niveau de confiance et de dépendance envers un chatbot à but lucratif et non fiable est profondément irresponsable. La Big Tech veut que nous médiatisiez nos vies et nos pensées à travers leurs services car alors ils ont leur mot à dire sur la façon dont nous dépensons notre argent, ce que nous faisons et ce que nous pensons.

Les entreprises derrière les LLMs vendent également leurs produits comme des solutions de productivité pour les gouvernements et les entreprises, promettant d’économiser du temps et des efforts pour leurs utilisateurs tout en introduisant de nouvelles opportunités pour que vous soyez surveillé. Au Royaume-Uni, le système d’IA du Ministère de la Justice « prédit » le risque de récidive(nouvelle fenêtre) des prisonniers. Les officiers de police utilisent des chatbots(nouvelle fenêtre) pour rédiger des rapports de crime. Combiner les pouvoirs de l’État avec des algorithmes biaisés(nouvelle fenêtre) est dangereux et renforce les préjugés existants.

Exploiter vos données à des fins d’entraînement

Les LLMs fonctionnent sur des modèles d’IA entraînés par d’énormes jeux de données, et afin d’améliorer leurs services, ils nécessitent de plus en plus de données. Malheureusement, ces données viennent de vous : vos discussions, vos photos, vos recherches web. Les entreprises ne vous demanderont pas toujours votre permission ou ne préciseront pas clairement ce qu’elles collectent de vous.

Par exemple, Meta AI veut scanner (nouvelle fenêtre)des photos(nouvelle fenêtre) dans votre bibliothèque que vous n’avez même pas importées sur ses plateformes pour analyser vos données faciales. De nombreux utilisateurs ont été perturbés par l’annonce que l’IA Copilot de Microsoft(nouvelle fenêtre) prendrait des captures d’écran de leurs appareils toutes les quelques minutes. Vos photos, vos messages à vos amis et proches, et vos pensées les plus personnelles sont des points de données précieux que les entreprises veulent.

En regardant la politique de confidentialité(nouvelle fenêtre) d’Open AI, nous voyons que ChatGPT trouvera et stockera :

  • Des identifiants, tels que votre nom, vos informations du contact, votre adresse IP et d’autres identifiants d’appareil
  • Des informations commerciales, telles que votre historique de transactions
  • Des informations sur l’activité réseau, telles que le contenu et la façon dont vous interagissez avec ChatGPT
  • L’emplacement général à partir duquel vous accédez à ChatGPT

Ces informations peuvent être divulguées aux gouvernements, fournisseurs, affiliés, prestataires de services et autres tiers.

Essentiellement, un LLM apprend à vous connaître. Tout comme un moteur de recherche, il en vient à comprendre vos habitudes, vos préférences, vos intérêts et chaque aspect de vous qu’il peut glaner de votre comportement. La Big Tech priorisera toujours la recherche de nouveaux moyens d’acquérir vos données personnelles car c’est rentable. Et ils espèrent que vous ne le remarquerez pas.

Pensez simplement aux tendances qui ont balayé les réseaux sociaux ces dernières années : des animations personnalisées de style Studio Ghibli(nouvelle fenêtre) imitaient le style distinctif de Hayao Miyazaki contre sa volonté et des poupées emballées par IA personnalisées(nouvelle fenêtre) inspirées de jouets classiques comme Barbie ont créé des aperçus visuels des goûts personnels des gens. Cette tendance des réseaux sociaux a peut-être semblé être un amusement inoffensif, mais les outils d’IA utilisés pour créer ces images ont pu récolter des photos et des informations sur les gens que leurs sociétés mères peuvent utiliser à des fins publicitaires et potentiellement vendre à des tiers. Ce ne sont que deux des nombreux exemples de la Big Tech ingérant discrètement vos données personnelles en échange d’une participation à une tendance éphémère.

Il existe une meilleure solution pour les LLMs

Après avoir lu à propos de tous ces risques, vous pourriez en venir à penser que les LLMs sont intrinsèquement dangereux. Mais ce n’est pas du tout le cas. Les entreprises de la Big Tech ont construit leurs systèmes d’IA pour être invasifs et avides de données à dessein. Il est possible de construire une IA qui protège la vie privée des gens et garde les données sécurisées par défaut. Nous le savons parce que nous l’avons fait avec Lumo, notre assistant IA(nouvelle fenêtre) axé sur la confidentialité.

Voici comment Lumo résout le vrai problème d’alignement de l’IA :

  • Lumo ne garde pas de journaux de vos conversations. Chaque discussion est supprimée de nos serveurs dès que le modèle a fini de traiter votre requête et réponse.
  • Les historiques de discussion sont stockés avec un chiffrement zéro accès. En verrouillant vos données avec votre clé secrète, Proton n’a jamais accès et ne peut donc jamais partager ou fuiter accidentellement vos données.
  • Nous n’entraînons pas les modèles avec vos discussions. Utiliser des conversations pour entraîner des modèles d’IA place vos données à risque de refaire surface dans de futures sorties. Les conversations avec Lumo sont les vôtres uniquement.
  • Lumo est open source et n’utilise que des modèles open source. Parce que notre base de code est publique, n’importe qui peut vérifier que nos applications font exactement ce que nous prétendons.
  • Nous sommes basés dans une juridiction respectueuse de la vie privée. Contrairement aux IA de la Big Tech basées aux États-Unis qui sont soumises à des lois de surveillance invasives, Lumo est basé en Europe et protégé par des lois fortes sur la vie privée.

À chaque niveau, Lumo est conçu pour fournir la même utilité que d’autres LLMs sans les externalités risquées. La Big Tech pourrait construire ses IA de la même manière. Ils choisissent simplement de ne pas le faire car vos données sont leur devise.

L’alignement de l’IA est-il vraiment une menace ?

La vérité est simplement moins excitante que ce que les PDG de la Big Tech voudraient nous faire croire. Il semble moins probable qu’une IA permette aux gens de créer des armes biologiques ou de dépenser toutes nos ressources mondiales pour fabriquer des trombones qu’elle ne suivra simplement les directives que la Big Tech suit déjà : Voler et exploiter des données privées.

Ne croyez pas au battage médiatique sur l’alignement de l’IA. Ce n’est pas la menace sur laquelle aucun de nous ne devrait se concentrer. La surveillance, l’exploitation des individus et des petites entreprises, et un écosystème d’information compromis sont les préoccupations urgentes auxquelles nous devrions réellement prêter attention en ce qui concerne l’IA.