ثقافة و فن

Gouvernance de l’IA et éthique : fondements, dilemmes et principes pour une IA responsable

EL HANBALI Aziz

L’intelligence artificielle (IA) s’est imposée comme une infrastructure décisionnelle majeure : elle classe, prédit, recommande, priorise et assiste des décisions dans des contextes à forts enjeux (recrutement, crédit, santé, sécurité, mobilité, information). Cette généralisation rend nécessaire une gouvernance de l’IA, comprise comme l’ensemble des dispositifs techniques, organisationnels, juridiques et sociaux permettant d’encadrer la conception, le déploiement et l’usage des systèmes d’IA, afin d’en maximiser les bénéfices tout en maîtrisant les risques.

La réflexion éthique est souvent introduite par un constat : l’IA n’a pas de conscience morale. Elle ne possède ni intention propre, ni conscience, ni libre arbitre ; elle n’éprouve ni culpabilité ni devoir. Dans cette perspective, l’éthique ne peut pas être « déléguée » à la machine : elle relève des acteurs humains (concepteurs, entreprises, autorités publiques, utilisateurs) qui fixent les finalités, sélectionnent les données, choisissent les métriques de performance, arbitrent les risques et organisent la responsabilité. Cette exigence rejoint la mise en garde de Stephen Hawking : la réussite de l’IA peut constituer un événement historique, mais aussi un danger si l’on ne développe pas des capacités collectives de prévention et de contrôle des risques.

Dans ce cadre, l’objectif de cet article est de proposer une synthèse académique, structurée autour : (i) des fondements philosophiques (morale/éthique, utilitarisme, déontologie), (ii) des dilemmes (tramway et variantes) appliqués aux systèmes autonomes, (iii) des risques empiriques (vie privée, biais, sûreté, cybersécurité), et (iv) des principes internationaux d’une IA digne de confiance (UNESCO, OCDE, Union européenne)

 Clarifier morale et éthique : deux niveaux d’analyse normatifs

Une première condition d’une gouvernance éthique consiste à distinguer morale et éthique. La morale renvoie à un ensemble de règles et de normes (souvent héritées culturellement) qui répondent à la question : « que dois-je faire ? ». L’éthique, au sens philosophique, désigne une démarche critique portant sur les valeurs, les justifications et les conditions d’une action juste : « comment agir justement, et pourquoi ? ». Cette distinction est décisive pour l’IA : la gouvernance ne consiste pas uniquement à imposer des règles techniques, mais à justifier des choix sociotechniques (objectifs, arbitrages, seuils de risque, modalités de supervision, procédures de recours).

 L’IA « sans valeurs » et la question de l’agence morale

L’affirmation « l’IA n’a pas de valeurs » vise à rappeler que les systèmes actuels, même très performants, optimisent des fonctions et exploitent des corrélations statistiques sans intentionnalité morale. Une conséquence directe est que la responsabilité doit être située au niveau des chaînes de décision humaines : conception, test, déploiement, maintenance, gouvernance des données, surveillance post-déploiement, et mécanismes de correction.

Cette prudence est renforcée par des débats philosophiques sur l’assimilation entre calcul et compréhension. L’argument de la « chambre chinoise » de John Searle montre qu’un système peut manipuler correctement des symboles selon des règles formelles sans comprendre leur signification. Autrement dit, la conformité comportementale (répondre « comme si » l’on comprenait) ne garantit ni compréhension, ni intention, ni responsabilité morale. Ce point justifie l’importance, en gouvernance, de la transparence, de l’explicabilité, de la supervision humaine et de la redevabilité

 Dilemmes du tramway : traditions morales et traduction algorithmique

Les dilemmes du tramway constituent un outil pédagogique et théorique pour comparer des traditions morales

a) Utilitarisme (conséquentialisme). Une action est moralement bonne si elle maximise le bien-être collectif ; le résultat prime sur l’intention. Ce cadre est généralement associé à Bentham et Mill (dans la tradition). Dans la version « aiguillage », le calcul « 5 > 1 » conduit à tirer le levier pour sauver le plus grand nombre

b) Déontologie (kantienne). Une action est moralement juste si elle respecte un devoir moral universel et la dignité des personnes, indépendamment des conséquences. Dans ce cadre, utiliser délibérément une personne comme moyen (p.ex., la pousser) est moralement problématique, même si cela sauve davantage de vies

Judith Jarvis Thomson a largement contribué à populariser et complexifier le dilemme (notamment via des variantes qui rendent l’action plus directe et plus intentionnelle). Ces variations illustrent que l’évaluation morale dépend aussi de paramètres comme l’intention, la proximité, la causalité et la responsabilité

Traduction algorithmique. Le dilemme devient « algorithmique » dans les véhicules autonomes et les systèmes de priorisation : faut-il programmer une politique minimisant le nombre total de victimes (intuition utilitariste), ou interdire certains actes (intuition déontologique), même si cela accroît le nombre de dommages ? Cette translation soulève trois problèmes de gouvernance

  1. Problème de programmation (quels principes encoder ?)

  2. Problème de légitimité (qui décide : ingénieurs, entreprises, régulateurs, société ?)

  3. Problème de responsabilité (qui répond du dommage : concepteur, opérateur, organisation, État ?)

L’expérience « Moral Machine » a précisément mis en évidence la diversité des préférences morales selon les cultures, tout en identifiant certains motifs relativement robustes (p.ex. préférence pour sauver plus de vies). Cette diversité rend impossible une « morale universelle » codée une fois pour toutes, et renforce la nécessité de procédures démocratiques, transparentes et auditables

Risques empiriques : scandales et incidents comme révélateurs de gouvernance

Les risques de l’IA apparaissent de façon particulièrement nette dans des cas publics

a) Vie privée et manipulation. Les enquêtes sur l’usage de données et de micro-ciblage politique autour de Cambridge Analytica ont illustré les vulnérabilités des écosystèmes de données (collecte, consentement, réutilisation, opacité des chaînes de traitement)

b) Biais et discrimination. Des travaux empiriques ont montré des disparités d’erreurs selon le genre et la couleur de peau dans certains systèmes d’analyse faciale, avec des écarts pouvant atteindre environ 34,7 % d’erreurs pour des femmes à peau foncée contre moins de 1 % pour des hommes à peau claire dans un cadre expérimental. Ce type de résultats éclaire les sources de biais (données d’entraînement, choix de labels, métriques, contexte d’usage) et impose des exigences de justice et de non-discrimination

c) Cybersécurité et attaques adversaires. Des travaux ont démontré la faisabilité d’attaques physiques par perturbations (stickers) sur des panneaux routiers (dont STOP), capables d’induire des erreurs de classification en conditions réalistes. Cela montre que la robustesse n’est pas seulement un enjeu technique ; c’est un enjeu de sûreté publique

d) Sûreté des systèmes autonomes. Les accidents impliquant des véhicules autonomes (ex. collision mortelle à Tempe, Arizona) ont mis en évidence l’importance des choix de conception, des procédures de test et des responsabilités organisationnelles

Ces cas convergent vers une même leçon : la gouvernance doit intégrer des mécanismes continus d’évaluation, de mitigation et de reddition de comptes, au-delà d’une validation ponctuelle en laboratoire

Principes de gouvernance : convergence UNESCO, OCDE, Union européenne

Les cadres internationaux convergent vers des exigences proches

  • UNESCO : la Recommandation sur l’éthique de l’IA propose un ensemble structuré de principes (dont proportionnalité et ne pas nuire, sécurité, équité et non-discrimination, durabilité, vie privée et protection des données, transparence et explicabilité, responsabilité).

  • OCDE : les Principes de l’OCDE promeuvent une IA innovante et digne de confiance, respectueuse des droits humains et des valeurs démocratiques, avec un accent sur transparence, robustesse/sécurité et responsabilité (accountability).

  • Union européenne : les lignes directrices sur l’IA digne de confiance définissent trois composantes : légale (conforme au droit), éthique (alignée sur des principes), et robuste (techniquement et socialement fiable).

Cette convergence permet de définir une « colonne vertébrale » de gouvernance : sécurité/sûreté, protection des données, équité, transparence/explicabilité, supervision humaine, responsabilité et redevabilité

La gouvernance éthique de l’IA repose sur un point fondamental : si l’IA n’a pas d’agence morale, alors l’éthique est une propriété du système sociotechnique (objectifs, données, organisations, règles, procédures, audits) et non une propriété intrinsèque de l’algorithme. Les dilemmes du tramway, les débats philosophiques (ex. chambre chinoise), les scandales de données et les incidents de sûreté montrent que l’enjeu n’est pas seulement de « faire fonctionner » l’IA, mais de justifier, contrôler, documenter et assumer ses effets

Une gouvernance académique et opérationnelle doit ainsi articuler

  1. des fondements normatifs (cadres moraux explicites)-

  2. des procédures de décision légitimes (qui décide des valeurs encodées ?)-

  3. des principes (UNESCO/OCDE/UE) traduits en exigences techniques et organisationnelles-

  4. une redevabilité continue (audit, traçabilité, recours, correction)-

C’est à ce prix que l’IA peut devenir une technologie réellement « digne de confiance » : non pas parce qu’elle serait morale, mais parce que ses conditions de conception et d’usage sont gouvernées de manière responsable

 

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى