EL HANBALI Aziz
Pour parler de gouvernance de l’IA, il convient d’abord d’identifier les bases de l’intelligence artificielle. L’IA n’est pas qu’une question technique, elle est aussi une question éthique, réglementaire, de société, humaine ; c’est parce que l’on parle de gouvernance de l’IA, et non de technologie, que l’on en appréhende l’approche multi disciplinaire, impliquant la composante informatique, certes, mais aussi, la philosophie, la psychologie, le droit, l’économie, sans oublier les sciences sociales, le tout étant mis à contribution réciproquement, dans un domaine d’application varié, qui va de l’éducation, à la recherche, l’industrie, pour finir à la gouvernance publique, tout en posant la question du bien–fondé de son usage, celle de ses limites, sans oublier ses conséquences sociétales. Dans l’optique de mieux comprendre l’IA, nous devons remonter à l’histoire de la pensée. On retient, par exemple, que dans la Grèce antique, alors que les sophistes étaient efficaces, c’est-à–dire capables de faire parler et convaincre, l’argumentation était plus mercure que modalité, même si les sophistes s’en défendaient. Socrate au contraire recherchait la vérité via la question. Il est associé à Platon et Aristote : il fait donc partie de l’histoire du raisonnement rationnel – ce qui autorise cette référence
Un premier point important est que l’IA n’est pas une technologie totalement récente. Le terme intelligence artificielle apparaît officiellement en 1956 lors de la conférence de Dartmouth. John McCarthy a beaucoup contribué à définir ce domaine. Alan Turing, dès 1950, avait déjà posé la question de savoir si une machine pouvait penser. Son célèbre test montre qu’une machine peut être dite “intelligente” si un humain n’arrive pas à la distinguer d’un autre humain dans un échange. Norbert Wiener, avec la cybernétique, a aussi joué un rôle important dans les débuts de cette réflexion
L’évolution de l’IA dépend de trois grands éléments : les données, la puissance de calcul et les algorithmes. Quand ces trois facteurs progressent, l’IA progresse aussi. C’est ce qui explique le retour en force de l’IA à partir des années 2010, surtout avec les réseaux de neurones et le deep learning. Ces avancées ont permis des applications comme la reconnaissance faciale, la détection d’objets, l’imagerie médicale, la détection de tumeurs, l’analyse des achats ou encore la biométrie
L’histoire de l’IA a aussi été marquée par plusieurs moments célèbres. En 1997, Deep Blue a battu le champion d’échecs Garry Kasparov. En 2016, l’IA a fait un grand pas avec le jeu de Go, considéré comme beaucoup plus complexe. En 2022, ChatGPT a connu un succès mondial très rapide. Ce succès a montré la force de l’IA générative, mais il a aussi soulevé des critiques et des inquiétudes sur les risques, le plagiat, la désinformation et la sécurité.
Il faut aussi comprendre que toutes les IA ne sont pas identiques. Définir l’intelligence est difficile. Est-ce la rapidité ? La mémoire ? La capacité à résoudre des problèmes ? Le raisonnement ? Le savoir ? En général, on peut dire que l’IA est un système capable d’atteindre un objectif dans un environnement donné
Il existe plusieurs grandes approches de l’IA. L’approche symbolique repose sur des règles écrites à l’avance, sous forme d’algorithmes. L’approche du machine learning fonctionne autrement : la machine apprend à partir des données et des exemples. Le deep learning pousse encore plus loin cette logique grâce aux réseaux de neurones artificiels. Dans cette approche, on étudie le problème, on entraîne un modèle, puis on évalue les résultats
En résumé, la gouvernance de l’IA demande de bien comprendre que l’IA n’est pas seulement un outil technique. C’est un domaine ancien, complexe, en évolution rapide, qui influence de nombreux aspects de la vie humaine. C’est pourquoi il faut l’aborder avec une réflexion sérieuse, critique et responsable