De Nagasaki à l’intelligence artificielle : cesser de subir, commencer à assumer
Et si la révolution que provoque l’intelligence artificielle suivait un scénario que l’histoire nous a déjà montré? Dans une chronique comparative, notre expert Alain Lavoie partage ses réflexions à son retour du Japon, où certains parallèles historiques avec la situation actuelle se sont imposés à lui.
Je reviens du Japon. Comme beaucoup, j’y allais pour la culture, l’histoire, le dépaysement. Je n’y allais pas pour réfléchir à l’intelligence artificielle. Et pourtant… À Nagasaki, une évidence s’est imposée. Pas technologique. Historique. Une évidence que nous refusons encore de voir : nous sommes en train de répéter, avec l’IA, un cycle que les sociétés ont déjà vécu.
Nous ne sommes pas au début d’un cycle technologique.
Nous sommes au début d’un cycle de perte de contrôle.
Une « innovation » qui n’en est pas une
Au XVIe siècle, lorsque François Xavier introduit le christianisme au Japon, l’adoption est rapide. À Nagasaki, la foi se répand. Mais pas seulement pour des raisons spirituelles.
Elle ouvre :
- des routes commerciales ;
- des alliances ;
- un accès à un monde extérieur.
Aujourd’hui, l’IA joue un rôle similaire. Dans la pratique, notamment en IA documentaire, on observe des organisations qui adoptent rapidement ces capacités… souvent avant d’avoir structuré les implications opérationnelles et décisionnelles.
Comme hier, nous adoptons… sans pleinement comprendre.
Le point de bascule : quand le contrôle échappe
Très vite, les autorités japonaises comprennent. Le christianisme influence, transforme, déplace les centres de pouvoir. La réaction est brutale : interdiction, répression, persécution des convertis, jusqu’à l’éradication organisée de cette influence pendant plus de deux siècles.
Aujourd’hui, les signaux sont similaires avec l’IA :
- préoccupations sur la souveraineté;
- encadrements réglementaires ;
- dépendance technologique.
Derrière ces débats : la peur de ne plus contrôler les décisions. La question n’est pas de savoir si la réaction sera aussi brutale… mais sous quelle forme elle s’exprimera.
Le vrai tournant
Au XIXe siècle, avec la Restauration de Meiji (1868), le Japon change de posture. Il cesse de lutter contre l’inévitable. Il organise. C’est toujours à ce moment précis que les sociétés reprennent le contrôle.
Sur le terrain aujourd’hui, ce basculement est tangible : les organisations ne cherchent plus seulement à faire fonctionner l’IA, mais à être capables d’en expliquer et d’en justifier les résultats, notamment dans des processus critiques.
La seule question qui compte
Dans un comité de direction, la question n’est jamais technique.
Qui est responsable de cette décision ?
Et ensuite :
- Peut-on l’expliquer ?
- Peut-on la retracer ?
- Peut-on la défendre ?
Conclusion — l’IA qui rend des comptes
C’est dans cette transition… entre usage et responsabilité… que se jouent aujourd’hui les projets les plus structurants.
Particulièrement dans des contextes comme l’analyse documentaire, où chaque décision doit être explicable et auditée.
Une IA qui fonctionne est utile.
Une IA dont on peut répondre est stratégique.
C’est là que se joue la vraie transformation.
