ثقافة و فن
Gouvernance de l’Intelligence Artificielle : cadres normatifs, modèles comparés et trajectoires de régulation-ELHANBALI Aziz

EL HANBALI Aziz
Introduction
L’intelligence artificielle n’est plus seulement une technologie : elle est devenue une infrastructure décisionnelle diffuse, présente dans les administrations, le travail, la sécurité, la santé, l’éducation, les marchés numériques et les systèmes d’information. Cette extension rapide explique que la question ne soit plus uniquement de savoir ce que l’IA peut faire, mais selon quelles règles elle doit être conçue, déployée, évaluée et contrôlée. Depuis les principes de l’OCDE adoptés en 2019 et actualisés en 2024 jusqu’à la Recommandation de l’UNESCO de 2021, au NIST AI Risk Management Framework et à l’AI Act européen, la gouvernance de l’IA s’est construite comme un champ mêlant normes éthiques, standards techniques, instruments administratifs et droit positif
Les documents visuels que vous avez fournis font apparaître plusieurs idées fortes : l’IA comme « révolution en trois actes », l’évolution de la gouvernance depuis les principes jusqu’au hard law, l’existence de philosophies réglementaires divergentes, le caractère sectoriel des régulations, ainsi que le dilemme stratégique du Sud global. Cet article reprend ces intuitions, les systématise et les inscrit dans un cadre scientifique, afin de proposer une lecture cohérente des débats actuels sur la gouvernance de l’IA
Chapitre I. Penser la gouvernance de l’IA : concepts et périmètre
1.1. De l’éthique à la gouvernance
L’éthique de l’IA renvoie aux valeurs et principes qui doivent guider le développement des systèmes : dignité humaine, justice, non-discrimination, explicabilité, sûreté, supervision humaine et responsabilité. La régulation, elle, renvoie à l’ensemble des instruments juridiquement ou administrativement opposables qui encadrent les usages. La gouvernance est plus large : elle comprend les lois, les autorités, les standards, les mécanismes d’audit, les procédures organisationnelles et les pratiques de coordination qui structurent le cycle de vie des systèmes d’IA. En ce sens, la gouvernance articule normes morales, outils techniques et institutions publiques
Cette distinction est essentielle. Une technologie peut être moralement contestée sans être encore strictement régulée ; inversement, une réglementation peut exister sans constituer une gouvernance complète si les mécanismes de contrôle, de supervision et de recours sont faibles. La gouvernance suppose donc une architecture multiniveau : principes internationaux, règles nationales, encadrement sectoriel et dispositifs internes aux organisations
1.2. Une gouvernance fondée sur les risques, les droits et les capacités
Les cadres contemporains convergent sur un point : l’IA doit être gouvernée en fonction de ses effets potentiels. Le NIST AI RMF propose une gestion du risque orientée vers les impacts sur les individus, les organisations et la société ; l’UNESCO place les droits humains, la dignité et la supervision humaine au centre ; le Conseil de l’Europe insiste sur la compatibilité avec les droits humains, la démocratie et l’État de droit. La gouvernance de l’IA n’est donc pas seulement un problème technique ; c’est un problème institutionnel et politique
Chapitre II. L’évolution de la gouvernance de l’IA : des principes au droit contraignant
2.1. L’ère des principes et de la soft law
La première phase de la gouvernance contemporaine de l’IA a été dominée par des instruments de soft law. Les principes de l’OCDE, adoptés en 2019 puis révisés en 2024, promeuvent une IA innovante et digne de confiance, respectueuse des droits humains et des valeurs démocratiques. La Recommandation de l’UNESCO, adoptée en 2021 et applicable aux 194 États membres, constitue quant à elle un référentiel global centré sur la dignité, l’équité, la transparence, la responsabilité et la durabilité
Cette phase a été importante pour créer un langage commun. Elle a permis d’installer l’idée qu’une IA acceptable devait être à la fois performante et légitime. Toutefois, la soft law présente une limite classique : elle fournit un horizon normatif, mais pas toujours des obligations précises ni des sanctions effectives. C’est pourquoi nombre d’États ont ensuite cherché à compléter ces principes par des cadres de gestion du risque, des standards techniques et des lois sectorielles
2.2. Le tournant des standards, des stratégies et de l’anticipation
Une seconde étape a consisté à formaliser des outils plus opérationnels. Le NIST AI RMF, aux États-Unis, est explicitement conçu pour un usage volontaire, mais il fournit une architecture robuste de gouvernance des risques. Parallèlement, l’OCDE a développé un travail prospectif sur les trajectoires possibles de l’IA jusqu’en 2030, en distinguant plusieurs scénarios de progression allant du ralentissement à l’accélération rapide. Cela traduit une mutation importante : gouverner l’IA ne consiste plus seulement à réagir, mais aussi à anticiper
2.3. Le passage au hard law
La troisième étape est celle de la juridicisation. L’AI Act de l’Union européenne, règlement 2024/1689, est entré en vigueur le 1er août 2024, avec une application progressive à partir de février 2025, août 2025, août 2026 et août 2027 selon les catégories d’obligations. Il s’agit d’un cadre fondé sur le risque, visant à protéger la santé, la sécurité et les droits fondamentaux tout en favorisant un marché européen de l’IA digne de confiance. Dans le même mouvement, le Conseil de l’Europe a ouvert à la signature, le 5 septembre 2024, la première convention internationale juridiquement contraignante en matière d’IA, axée sur les droits humains, la démocratie et l’État de droit
Chapitre III. Trois grands modèles de gouvernance de l’IA
3.1. Le modèle européen : statutaire et fondé sur le risque
Le modèle européen repose sur une logique de précaution juridique. L’AI Act distingue les systèmes à risque inacceptable, à haut risque, à risque limité et à risque minimal. Il prévoit des obligations renforcées pour les systèmes à haut risque, notamment en matière de documentation, de gouvernance des données, de supervision humaine, de robustesse et d’évaluation de conformité. Il encadre aussi certains usages de l’identification biométrique à distance par les autorités répressives, avec des restrictions strictes et des exceptions limitées
Ce modèle vise la sécurité juridique, l’harmonisation du marché et la protection des droits fondamentaux. Sa force tient à la clarté de ses catégories ; sa faiblesse potentielle réside dans le coût de conformité, particulièrement sensible pour les PME et les écosystèmes émergents. L’Europe privilégie donc une régulation ex ante : prouver la conformité avant ou au moment du déploiement, plutôt que réparer seulement après le dommage
3.2. Le modèle américain : pro-innovation et fragmenté
Les États-Unis n’ont pas, à ce jour, de code fédéral général équivalent à l’AI Act européen. Leur approche combine des orientations fédérales, des mémorandums administratifs, des initiatives présidentielles et une forte montée en puissance des législations étatiques. L’OMB a publié en 2024 un mémorandum imposant des exigences minimales de gouvernance et de gestion des risques pour les usages de l’IA dans l’administration fédérale ; en 2025, un nouveau mémorandum a cherché à accélérer l’usage fédéral de l’IA tout en maintenant des exigences de gouvernance et de confiance publique. En parallèle, la NCSL documente une forte prolifération de textes au niveau des États depuis 2025
Cette architecture produit ce que vos diapositives appellent justement un « patchwork réglementaire américain ». Son avantage est la flexibilité, l’expérimentation et la proximité sectorielle ; son inconvénient est l’hétérogénéité normative et l’incertitude pour les acteurs opérant à l’échelle nationale. C’est un modèle davantage ex post et distribué, où le marché, les agences et les tribunaux jouent un rôle important
3.3. Le modèle chinois : stratégique, étatique et gradué
La Chine a adopté une approche qui articule promotion de l’innovation et contrôle politique du cyberespace. Les mesures intérimaires sur les services d’IA générative, publiées en 2023, visent explicitement à « promouvoir le développement sain » de l’IA générative tout en protégeant la sécurité nationale, l’intérêt public et les droits des personnes. Elles instituent une logique de régulation prudente, graduée et classifiée. Le régime chinois a également mis en place des mécanismes de dépôt et d’enregistrement pour certains services génératifs, ainsi qu’un renforcement des exigences d’étiquetage des contenus synthétiques
Cette approche se distingue donc du modèle européen non par l’absence de règles, mais par une autre hiérarchie des finalités : la stabilité sociale, la sécurité informationnelle et la gouvernance des plateformes y occupent une place centrale. Le résultat est une gouvernance plus centralisée, plus intégrée aux politiques industrielles et plus directement imbriquée avec les logiques de souveraineté
Chapitre IV. Gouvernance sectorielle : reconnaissance faciale et recrutement
4.1. La reconnaissance faciale comme révélateur normatif
La reconnaissance faciale constitue un cas d’école, car elle touche simultanément à la sécurité, à la vie privée, à la non-discrimination et aux libertés publiques. En Europe, l’usage de certaines formes d’identification biométrique à distance fait l’objet d’un encadrement particulièrement strict dans le cadre de l’AI Act. Cela confirme l’idée, présente dans vos diapositives, qu’un même dispositif technique peut être traité avant tout comme une question de droits fondamentaux et de proportionnalité
4.2. Le recrutement algorithmique et la justice procédurale
Le recrutement est un autre secteur décisif, car il touche à l’accès à l’emploi, à l’égalité de traitement et à la transparence de la décision. Dans l’espace européen, les usages d’IA liés à l’emploi, à la gestion des travailleurs et à l’accès au travail indépendant figurent parmi les domaines soumis à des exigences renforcées pour les systèmes à haut risque. La gouvernance de l’IA y devient alors une garantie de justice procédurale : auditabilité, documentation, supervision humaine et possibilité de contestation
Ces deux cas montrent que la régulation de l’IA devient de plus en plus « horizontale » dans sa philosophie, mais « sectorielle » dans sa mise en œuvre. Autrement dit, les principes généraux sont communs, mais leur traduction dépend des fonctions exercées par les systèmes, des populations affectées et du niveau de risque socialement acceptable
Chapitre V. Le dilemme stratégique du Sud global
5.1. Entre adoption des cadres existants et voies propres
Les pays du Sud global font face à un dilemme majeur : adopter rapidement des cadres produits ailleurs pour faciliter l’interopérabilité, ou construire des régulations adaptées à leurs priorités économiques, sociales et institutionnelles. Les travaux de l’OCDE, de l’UNESCO et du Conseil de l’Europe suggèrent qu’une gouvernance pertinente doit être contextuelle, proportionnée et fondée sur les capacités réelles des institutions. Une simple importation normative peut produire une conformité formelle sans effectivité pratique
5.2. Les risques de la transposition mécanique
Vos diapositives insistent avec raison sur les « défauts structurels » de chaque modèle. Une régulation trop légère peut laisser persister des préjudices sans recours effectif ; une régulation trop lourde peut étouffer un écosystème encore fragile ; une stratégie hybride peut rester déclarative si l’État ne dispose pas des capacités techniques et administratives nécessaires. Le vrai enjeu n’est donc pas de choisir un modèle étranger, maisd’ajuster le degré de contrainte aux capacités nationales, au tissu économique et aux secteurs prioritaires
Conclusion
La gouvernance de l’IA est entrée dans une phase de maturité conflictuelle. Les grands référentiels internationaux convergent sur des principes communs — droits humains, sécurité, transparence, responsabilité — mais divergent fortement sur la manière de les traduire en institutions et en obligations. L’Union européenne privilégie un cadre statutaire fondé sur le risque ; les États-Unis combinent gouvernance fédérale, expérimentation et patchwork étatique ; la Chine articule innovation et sécurité dans une logique centralisée ; de nombreux pays du Sud global cherchent encore une voie propre entre importation normative et construction graduelle
La principale leçon issue de vos notes et diapositives est la suivante : la gouvernance de l’IA n’est pas un texte unique, mais un processus. Elle suppose un passage ordonné des principes aux capacités, puis des capacités à la règle opposable. Dans cette perspective, la question centrale n’est pas de savoir s’il faut réguler, mais comment articuler éthique, droit, innovation et souveraineté pour construire une gouvernance légitime, efficace et adaptée au contexte national


