IA et intégrité : Bruce Schneier tire la sonnette d’alarme à Montréal
De passage à Montréal, le cryptologue américain Bruce Schneier a tiré la sonnette d’alarme sur l’« intégrité », qui devient notre plus grand défi, à mesure que les systèmes d’intelligence artificielle passent de la prédiction à l’action.
Vous souvenez-vous du chaos mondial de juillet 2024? Une simple erreur de mise à jour de l’entreprise CrowdStrike a paralysé des aéroports et des hôpitaux, clouant au sol des millions de personnes. Pour le spécialiste en sécurité informatique Bruce Schneier, venu en parler la semaine dernière à l’Université de Montréal, cet événement était signal d’alarme : nous sommes entrés dans « l’âge de l’intégrité ».
L’IA ne fait plus que parler, elle agit
Pendant trente ans, la sécurité informatique s’est concentrée sur deux choses : protéger nos secrets (la confidentialité) et s’assurer que les ordinateurs restent allumés (la disponibilité). Mais aujourd’hui, avec l’IA et les objets connectés, tout change. Les machines ne se contentent plus de nous suggérer des films. Elles commencent à conduire nos voitures, à gérer nos réseaux électriques et à doser des médicaments.
« l’intégrité consiste à s’assurer que les données sont exactes au moment de leur collecte, qu’elles proviennent d’une source digne de confiance et qu’elles n’ont pas été falsifiées, usurpées (spoofed) ou rejouées (replayed) »
C’est ce que Schneier appelle « l’automatisation des conséquences à la vitesse de la machine ». Si une IA se trompe, elle ne fait pas qu’afficher une erreur sur un écran : elle agit physiquement sur le monde. L’intégrité, c’est simplement s’assurer que le système produit un résultat « correct ». Sans cette garantie, même l’IA la plus intelligente devient un danger.
Des exemples de compromission de l’intégrité
Pour Bruce Schneier, l’intégrité est d’abord une question de confiance dans l’état d’un système. « Le redémarrage d’un ordinateur, qui le ramène à un état connu et sain, est en soi un mécanisme d’intégrité. Les signatures numériques en sont un autre », illustre-t-il. Plus largement, « l’intégrité consiste à s’assurer que les données sont exactes au moment de leur collecte, qu’elles proviennent d’une source digne de confiance et qu’elles n’ont pas été falsifiées, usurpées (spoofed) ou rejouées (replayed) ».
L’expert insiste sur un point souvent mal compris : « l’intégrité ne dépend pas de l’intention malveillante. De la même façon que l’exposition de données personnelles constitue une atteinte à la confidentialité, même si personne n’y accède, l’absence de garanties d’intégrité est déjà une violation — même si aucune manipulation volontaire n’a eu lieu. » Une réflexion qui, au Québec, ne peut manquer de faire écho aux exigences de la Loi 25.
Un écho aux craintes de Yoshua Bengio et Yann LeCun
Cette conception de la sécurité fait écho aux mises en garde de chercheurs comme Yoshua Bengio, qui alerte régulièrement sur les risques de systèmes d’IA susceptibles d’échapper au contrôle humain. Là où Bengio insiste sur les enjeux d’alignement et de maîtrise, Bruce Schneier avance une réponse plus structurelle : faire de l’intégrité — des données, des systèmes et des processus — un pilier fondamental.
Yann LeCun, pour sa part, plaide pour une IA capable de modéliser les lois du monde physique afin de limiter les erreurs de raisonnement. Dans la lecture de Schneier, cette exigence se traduit concrètement par la nécessité de garantir que les informations traitées par l’IA — qu’elles proviennent de capteurs industriels, de systèmes aéronautiques ou de véhicules autonomes — sont authentiques, fiables et n’ont pas été altérées.
Bâtir la confiance, une règle à la fois
Le message de l’expert est clair : « l’exactitude permet la confiance ». Pour que nous puissions un jour confier nos vies à des agents d’IA, nous devons pouvoir vérifier chaque étape, de la donnée captée à l’action finale.
Cependant, la technologie seule ne suffira pas. Tout comme nous avons créé des lois pour protéger notre vie privée, Schneier insiste sur la nécessité de réglementations strictes. Ce sont ces règles qui forceront les entreprises à construire des systèmes fiables. Le défi de la prochaine décennie ne sera pas seulement de rendre l’IA plus puissante, mais de s’assurer qu’elle reste, quoi qu’il arrive, prévisible et « intègre ».
