La plateforme qui vous informe, vous divertit et vous fait tester vos connaissances | Créée par Chloé-Anne Touma

La plateforme qui vous informe, vous divertit et vous fait tester vos connaissances | Créée par Chloé-Anne Touma

intelligence artificielleInternationalSouveraineté numériqueTechnologies

OpenAI et Pentagone : on vous explique la tempête médiatique et politique

Auteur(e)

  • Rédactrice en chef et créatrice de Culturemania et Les Connecteurs, journaliste FPJQ, analyste des impacts de la tech et de l'IA sur la société à la télé, radio et presse écrite, chroniqueuse techno à Moteur de recherche sur ICI Première et Explora.

OpenAI est au cœur d’une tempête médiatique et politique après la révélation d’un accord controversé avec le Pentagone, sur fond de méga‑investissements d’Amazon, qui renforcent encore son poids dans l’écosystème de l’IA.

Que s’est‑il passé avec le Pentagone?

OpenAI a conclu en février un contrat pour donner accès à ses modèles d’IA au Département de la Défense américain, quelques jours après l’échec de négociations similaires avec son rival Anthropic, qui avait refusé de s’engager sans garanties fortes sur l’interdiction d’armes autonomes et de surveillance de masse. La nouvelle a déclenché une vague de critiques : chercheurs en IA, ONG et une partie du grand public dénoncent le risque de voir ces technologies servir à la guerre ou à l’espionnage à grande échelle. Sous pression, Sam Altman a reconnu que l’accord avait été conclu de manière « opportuniste et négligente » et OpenAI a modifié le contrat pour interdire l’usage de ses systèmes pour espionner les Américains et limiter l’accès des agences de renseignement comme la NSA, même si la question des armes autonomes reste floue.

Tensions internes et exode de talents

En interne, une partie des employé·es d’OpenAI vit très mal ce virage militaro‑industriel. Certains ont déjà démissionné, d’autres s’expriment publiquement pour dénoncer un contrat jugé incompatible avec la mission affichée de l’entreprise, notamment des chercheurs qui regardent avec admiration la position plus prudente d’Anthropic. Des pétitions circulent dans la communauté IA pour refuser l’usage des modèles dans les armes autonomes et la surveillance de masse, rappelant les précédents comme le projet Maven chez Google. Cette contestation fragilise l’image « éthique » qu’OpenAI avait tenté de construire et pose la question de la gouvernance d’entreprises privées qui développent des technologies à fort impact géopolitique.

Méga‑deal avec Amazon et virage « entreprise »

Pendant que la polémique enfle, OpenAI verrouille en parallèle un partenariat massif avec Amazon Web Services (AWS). Amazon prévoit d’investir 50 milliards de dollars dans OpenAI, dans le cadre d’un accord cloud élargi à 100 milliards sur huit ans, avec AWS comme fournisseur exclusif de distribution cloud pour la plateforme “Frontier” d’agents d’IA destinés aux entreprises. Concrètement, OpenAI va consommer environ 2 gigawatts de puces Trainium d’Amazon pour entraîner et déployer ses modèles, tandis que les développeurs AWS pourront accéder à un “Stateful Runtime Environment” pour construire des applications et agents basés sur OpenAI à grande échelle. On assiste donc à une accélération de l’industrialisation de l’IA générative, centrée sur les besoins des grandes entreprises et des États.

Pourquoi ça concerne le Québec et le Canada

Pour le Québec, où l’IA est un secteur stratégique (MILA, écosystème montréalais, investissements publics), cette affaire met en lumière un dilemme très concret. D’un côté, les outils d’OpenAI, intégrés via AWS, sont appelés à devenir des infrastructures quasi incontournables pour les PME, les médias, les créateurs et même certains services publics québécois qui migrent vers le cloud. De l’autre, la controverse sur le Pentagone rappelle, pour certains groupes, que dépendre de plateformes américaines signifie aussi accepter leurs choix politiques et éthiques, qui peuvent entrer en tension avec les valeurs et priorités locales, notamment en matière de paix, de protection de la vie privée et de souveraineté numérique. Pour les lecteurs et lectrices d’ici, la question n’est donc pas seulement « faut‑il continuer d’utiliser ChatGPT? », mais aussi : quelles alternatives (écosystème open source, solutions hébergées localement, acteurs canadiens) voulons‑nous soutenir pour garder un minimum de contrôle sur la manière dont l’IA est développée et utilisée chez nous?

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Partagez votre réaction en commentaire!x
()
x