Résumé exécutif
Trois grandes puissances réglementaires — l’Union européenne, les États-Unis et la Chine — ont produit des cadres normatifs pour l’IA dont les incompatibilités structurelles relèvent d’une divergence philosophique fondamentale : droits fondamentaux et précaution (UE), leadership compétitif (États-Unis post-janvier 2025), contrôle social et souveraineté technologique (Chine). Le Rapport du Groupe consultatif de haut niveau sur l’IA des Nations Unies (septembre 2024) a établi que 118 États membres ne participent à aucune des principales initiatives non-onusiennes. Trois scénarios d’architecture multilatérale sont évalués : un traité contraignant, un régime de soft law OCDE, et un forum permanent avec compétence d’arbitrage.
Constat
Le Règlement IA de l’UE (2024/1689) est entré en vigueur le 1er août 2024 avec des obligations extraterritoriales et des amendes jusqu’à 7% du CA mondial. Aux États-Unis, le décret 14110 a été révoqué le 20 janvier 2025, remplacé par le décret 14179 axé sur la compétitivité. En Chine, les Interim Measures for Generative AI Services imposent le filtrage idéologique des contenus. Ces trois cadres sont structurellement incompatibles : un modèle entraîné aux États-Unis, déployé en Europe et vendu en Asie doit naviguer dans trois espaces normatifs contradictoires.
Analyse
La fragmentation reflète trois philosophies irréconciliables à court terme. L’extraterritorialité du Règlement européen et les mesures chinoises de localisation créent des tensions impossibles à résoudre sans coordination multilatérale. Les trois scénarios de gouvernance : (1) Un traité contraignant — la Convention-cadre du Conseil de l’Europe sur l’IA (septembre 2024) en est le premier prototype, mais ne compte que 10 signataires. (2) Le régime OCDE — les Principes IA révisés (mai 2024) comptent 47 adhérents mais restent non contraignants. (3) Un forum permanent — le Dialogue mondial sur la gouvernance de l’IA établi par résolution AG 79/325 (août 2025) en est l’embryon.
Implications politiques
Premièrement, aucun des trois scénarios n’est suffisant seul. Deuxièmement, la séquence optimale est : soft law OCDE comme socle normatif, forum permanent comme mécanisme de coordination, traité contraignant comme objectif de moyen terme. Troisièmement, l’inclusivité du Sud global est une condition de légitimité. Quatrièmement, Genève offre l’infrastructure institutionnelle la plus adaptée.
Recommandations
Premièrement, l’OCDE devrait mandat un groupe de travail sur la reconnaissance mutuelle des classifications de risque IA. Deuxièmement, le Dialogue mondial devrait adopter Genève comme siège permanent pour ses trois premières années. Troisièmement, l’UIT et le JTC 1 ISO/CEI devraient accélérer les standards techniques d’évaluation des risques IA. Quatrièmement, l’Assemblée générale de l’ONU devrait financer le Fonds mondial pour l’IA proposé dans le Pacte numérique mondial. Cinquièmement, le G20 devrait inclure la gouvernance de l’IA comme point permanent de son agenda.
L’architecture de gouvernance de l’IA ne se construira pas par convergence spontanée des régimes nationaux. Elle exige une démarche institutionnelle délibérée, séquencée et inclusive.