Contactez-nous !

Quelle gouvernance pour l'intelligence artificielle ?

La démocratisation fulgurante - plutôt que le développement - de l'IA ces derniers mois finit par poser LA question cruciale : quelle gouvernance pour éviter les dérives possibles des systèmes d'IA, fantasmées ou bien réelles ?

Penser un mode de gouvernance implique en premier lieu d'admettre sa nécessité. Les modalités d'une gouvernance, qui ne peut à notre sens qu'être mondiale, devront ensuite être négociées entre des acteurs structurellement inégalitaires : les États qui restent souverains et pourraient très bien décider d'une gouvernance interétatique classique, les entreprises qui sont au coeur de l'innovation liée à l'IA, et la société civile incluant les chercheurs, les ONG et les utilisateurs de l'IA. Les défis éthiques, économiques, politiques et juridiques sont nombreux et les implications colossales : c'est un virage global qu'il ne faut pas manquer.

Pour cela, il est possible de s'appuyer sur des régimes internationaux existants, et d'investir des concepts tels que le service public mondial.

La nécessité d'une gouvernance de l'IA

L'ère de l'intelligence artificielle (IA) a ouvert un nouveau chapitre dans l'histoire de l'humanité, comme celle d'Internet et peut-être de l'électricité avant elle. Cette technologie, qui a le potentiel de transformer radicalement notre façon de vivre, de travailler et d'interagir, soulève également des questions éthiques, juridiques et sociales complexes qui nécessitent une attention et une réflexion approfondies.

La première étape pour penser une gouvernance de l'IA est d'admettre sa nécessité. Cette affirmation peut passer pour une évidence, mais elle est loin d'être universellement acceptée. D'aucuns pourraient arguer que l'IA, comme toute technologie, est neutre en soi et que c'est l'utilisation que nous en faisons qui peut être bénéfique ou préjudiciable. Ce sont donc les usages, et non la technologie, qu'il faudrait réguler. Cette perspective n'est toutefois pas incompatible avec l'idée d'une gouvernance de l'IA ; par ailleurs, elle permet d'anticiper le fait que l'IA, du fait de sa capacité à apprendre et à prendre des "décisions" de manière autonome, présente des défis uniques qui peuvent nécessiter une réglementation spécifique.

L'un de ces défis réside dans la gestion des biais algorithmiques. Les systèmes d'IA sont formés sur des données qui reflètent immanquablement les préjugés existants dans la société, et peuvent en générer artificiellement d'autres. Par conséquent, sans une gouvernance appropriée, ces systèmes peuvent perpétuer et même amplifier ces biais, conduisant à des décisions problématiques et discriminatoires.

Le respect de la vie privée est une autre préoccupation majeure. Les systèmes d'IA ont besoin de très grandes quantités de données pour fonctionner efficacement, ce qui peut conduire à des violations de la vie privée si ces données sont mal gérées ou utilisées de manière abusive. Le cas des différentes plaintes portées devant les autorités de protection des données en Italie ou en France concernant des IA génératives comme ChatGPT illustre cette préoccupation majeure. Une gouvernance efficace de l'IA doit donc inclure des règles strictes sur la collecte, le stockage et l'utilisation des données, sur le modèle de l'existant - le RGPD, notamment, dont il faut déjà travailler à l'amélioration. Certaines institutions nationales, comme la CNIL qui lance en juillet 2023 un appel à contributions sur la constitution des bases de données, montrent par leurs préoccupations actuelles que le sujet est d'ampleur mondiale.

La transparence est également un enjeu crucial. Les systèmes d'IA sont souvent qualifiés de "boîtes noires" en raison de leur complexité et de leur opacité. Sans une transparence adéquate, il est difficile pour les utilisateurs de comprendre comment ces systèmes prennent des décisions, ce qui peut conduire à une perte de confiance et à une résistance à l'utilisation de l'IA. Surtout, il est indispensable, d'un point de vue éthique, que l'humain reste au centre du contrôle de l'IA, ce qui implique une transparence la plus totale possible de ces systèmes. Plus largement et au-delà de la transparence des systèmes dès leur conception (by design), c'est la question de l'accountability des systèmes d'IA (ou redevabilité) qui doit être posée,

Enfin, la question de la responsabilité, qui se situe un cran au-dessus de celle de la redevabilité, est centrale. Si un système d'IA cause un dommage, qui est responsable ? L'entreprise qui a développé le système ? L'utilisateur qui l'a utilisé à des fins personnelles ? Ou le système lui-même ? Une gouvernance efficace de l'IA doit fournir des réponses claires à ces questions.

La gouvernance de l'IA n'est donc pas seulement souhaitable, elle est impérative. Sans elle, nous risquons de voir se multiplier les abus, les dommages et donc les tensions sociales autour de l'IA, ce qui pourrait entraver le potentiel immense de cette technologie - notamment pour contribuer à résoudre les grands défis de l'Humanité comme le changement climatique. Il est donc de notre responsabilité collective de mettre en place une gouvernance de l'IA qui soit à la fois légitime, adéquate, effective et efficace, afin de garantir que l'IA soit utilisée pour le bien de tous.

La gouvernance de l'IA ne peut qu'être mondiale

L'IA est une technologie qui ne connaît pas de frontières. Elle est omniprésente, traversant les continents et les cultures, et influence de plus en plus d'aspects de notre vie, de l'économie à la santé en passant par l'éducation et le divertissement. Les technologies développées dans un pays peuvent être utilisées dans un autre, et les impacts de l'IA se font sentir à l'échelle globale. Autrement dit, comme Internet avant elle, l'IA est un phénomène transnational. C'est cette universalité qui rend la gouvernance de l'IA non seulement nécessaire, mais inévitablement mondiale.

La mondialisation de l'IA est déjà une réalité. Les entreprises technologiques opèrent à une échelle internationale, les données circulent (plus ou moins) librement à travers les frontières et les applications de l'IA sont déployées dans le monde entier. Il est bien connu que les décisions prises dans un État peuvent avoir des répercussions à l'autre bout du monde : un algorithme de reconnaissance faciale développé aux États-Unis peut facilement être utilisé, dans un premier temps, par une entreprise en Europe pour surveiller ses employés, soulevant des questions sur la vie privée et les droits de l'homme malgré l'existence de réglementations européennes sur le papier plus strictes qu'aux États-Unis. Autrement dit mondialisation va de paire avec vitesse : la technologie et sa diffusion mondiale vont plus vite que le droit national, qui est presque toujours, en matière numérique, post-régulatoire.

On a dit que les défis posés par l'IA sont universels. Les questions des biais algorithmique, de transparence, de responsabilité et de respect de la vie privée ne sont pas spécifiques à un pays ou à une région, bien que les États aient des conceptions différentes et relatives des droits de la personne humaine. Elles sont pertinentes pour tous les utilisateurs d'IA, où qu'ils se trouvent. Par conséquent, la réponse à ces défis doit également être universelle.

Pour toutes ces raisons, il est nécessaire de mettre en place une gouvernance qui transcende les frontières nationales. Une telle gouvernance pourrait, voire devrait impliquer une collaboration internationale entre les gouvernements, les entreprises, les organisations de la société civile et les chercheurs. Elle devrait viser à établir des normes et des règles communes pour l'utilisation de l'IA, tout en respectant la diversité des contextes culturels et sociaux - c'est-à-dire en incluant des marges de manoeuvre nationales communément acceptées.

La mise en place d'une gouvernance mondiale de l'IA n'est pour autant pas une tâche facile : il faudra surmonter de très nombreux défis, à commencer par les divergences de réglementations et surtout de visions de l'encadrement de l'IA entre les États, les différences de capacités technologiques, les inégalités d'accès à l'IA et le "confort" conduisant souvent à appliquer à un nouveau phénomène des cadres existants dont il est prévisible qu'ils ne seront pas adéquats ou efficaces.

 

Vers une gouvernance internationale multipartite

La conception et la construction d'une gouvernance mondiale de l'IA est un défi majeur, en grande partie en raison de la diversité et de l'inégalité des acteurs impliqués. Ces acteurs, qui ont tous un rôle à jouer dans le développement et l'utilisation de l'IA, ont des intérêts et des perspectives différents, ce qui rend la négociation d'une gouvernance commune difficile.

D'une part, il y a les États, qui restent souverains et ont le pouvoir de réglementer l'utilisation de l'IA sur leur territoire. D'aucuns croient, ou feignent de croire, que les États sont dépassés et ne peuvent pas réguler ces phénomènes. C'est oublier que la souveraineté est irréductible et que, contrairement à une technologie ou à une entreprise, l'État est éternel. Il n'y a pas le moindre doute sur le fait qu'un État peut souverainement décider d'interdire totalement tout système d'IA sur son territoire, de la même manière qu'ils peuvent interdire l'accès à Internet ou à certains réseaux sociaux. La seule question posée est, en réalité, celle de l'intérêt politique, économique et diplomatique qu'un État développé aurait à agir ainsi. Si l'intervention de l'État est une politique, l'absence d'intervention de l'État en est également une : il ne faut pas confondre inaction et impuissance à agir. Autrement dit, les États pourraient tout à fait décider d'agir dès maintenant, de manière unilatérale ou collective. La mention de la gouvernance de l'IA dans la déclaration finale cloturant le dernier G7 à Hiroshima va dans ce dernier sens et montre que le sujet est dorénavant sur la table des discussions mondiales du plus haut niveau. Cependant, il faut certainement résister à la tentation de mettre en place une gouvernance interétatique exclusive, sous la forme d'une organisation internationale classique de coopération. Ce type de structure, qui fait ses preuves dans bien des domaines, pourrait en effet se révéler insuffisant face à la nature transnationale de l'IA et à la nécessité d'associer les parties prenantes à la réflexion, ne serait-ce que pour éviter qu'elles travaillent contre la régulation.

D'autre part, il y a les entreprises, en particulier les grandes entreprises technologiques, qui sont au cœur de l'innovation liée à l'IA. Ces entreprises ont non seulement les ressources financières, mais aussi l'expertise technique pour développer des systèmes d'IA avancés. Cependant, leurs intérêts commerciaux peuvent parfois entrer en conflit avec les principes éthiques et les droits de la personne humaine. On ne peut, à cet égard, se satisfaire de la formulation de "principes" : l'expérience de l'éthique mondiale des affaires, qui pousse l'Union européenne à adopter une législation contraignante sur le devoir de vigilance des entreprises, le démontre amplement. Autrement dit, l'autorégulation a ses limites et la simple institution d'un organisme privé chargé seul de réguler l'IA, sous forme de forum ou d'initiative mondiale, ne constituera pas un modèle de gouvernance suffisamment crédible.

Se pose, plus largement, la question de la qualification sociale de l'IA. Si l'on se borne à y voir une simple technologie révolutionnaire, comme l'est Internet - bien qu'il s'agisse davantage d'un réseau de réseaux que d'une "technologie" à proprement parler -, on peut se contenter d'une régulation privée. Tel est justement le modèle d'Internet, l'intervention étatique, depuis l'émergence du WorldWideWeb, étant historiquement modérée et limitée aux questions infrastructurelles physiques (accueil des câbles, attribution des fréquences,...) et d'ordre public dans le cyberespace, pour anticiper les dommages que peuvent causer dans la réalité les activités numériques (terrorisme, cybersécurité...). Si, à l'inverse, l'on considère que l'IA doit être au service de l'humanité, il est possible d'y voir et d'imaginer la création d'un service public mondial. Dans ce cas, il ne saurait être purement privé, et devrait associer, par l'incitation et l'action publique, un maximum les parties prenantes.

Parmi elles et enfin figure la société civile, complexe et aux multiples visages. Elle comprend a minima les chercheurs universitaires, les ONG, les défenseurs des droits de l'homme et les utilisateurs de l'IA. Ces acteurs ont souvent une perspective différente, axée sur les impacts sociaux de l'IA et la protection des droits des individus. En l'état, ils peuvent manquer de pouvoir pour influencer les décisions de gouvernance.

Face à ces défis, l'objectif est de mettre en place une gouvernance de l'IA qui soit à la fois inclusive, légitime, équitable et efficace. Une telle gouvernance devrait prendre en compte les intérêts de tous les acteurs impliqués, et non seulement ceux des plus puissants - qu'il s'agisse des États dits développés ou des géants technologiques à la pointe de l'IA.

Elle devrait également garantir que les bénéfices de l'IA soient partagés de manière équitable, au service des grands enjeux de l'humanité comme le développement durable et la lutte contre le changement climatique. Cela signifie que les avantages économiques de l'IA, tels que les profits générés par les entreprises technologiques, devraient être répartis de manière à bénéficier à la société dans son ensemble, et non seulement à une élite privilégiée. On pourrait imaginer, à cet égard, la création de fonds d'investissements mondiaux alimentés par les revenus de l'IA et destinés à financer les initiatives climatiques et environnementales et/ou le développement durable des États.

Il faudra également veiller à ce que l'IA soit utilisée de manière éthique et responsable. Cela signifie, de manière simple, que les systèmes d'IA devraient être conçus et utilisés de manière à respecter les droits de l'homme et les libertés fondamentales, tels que le droit à la vie privée et à la non-discrimination - une liste précise devra être élaborée. Pour ce faire, plusieurs approches existent et pourront être mobilisées. La labellisation et la certification des systèmes d'IA peuvent être un premier pas. Il faut cependant repousser les limites de l'interétatisme rigide pour inclure les entreprises, responsables du développement de systèmes d'IA toujours plus innovants, au plus haut niveau des discussions.

On peut ainsi imaginer, en les incluant à part entière de même que la société civile dans ces processus, un système de registre et d'autorisation mondial après audit ; un système international d'alerte en cas d'incident lié à l'utilisation ou au comportement d'une IA sur le modèle du Règlement sanitaire international de l'OMS ; un régime de surveillance mondiale fondé sur la remise régulière et l'examen, par des experts de l'IA, de rapports rédigés par les responsables des systèmes d'IA incluant des recommandations, voire un système d'inspection internationale adapté à la nature non physique de l'IA.

En bref, la gouvernance de l'IA est un défi aussi complexe que passionnant, qui nécessite une approche tout aussi innovante que la technologie qu'elle devra encadrer. L'idée du service public mondial, peu exploitée, pourrait sans doute être investie à bon escient, non pour faire de l'IA un "bien public mondial" qui échapperait à la propriété de ses concepteurs - ce qui serait inacceptable et peu réaliste - mais pour reconnaître son caractère d'intérêt général et imaginer un encadrement partenarial garantissant, dans le développement comme l'utilisation des systèmes d'IA, la poursuite prioritaire de l'intérêt de l'humanité.

L'essentiel à retenir :

  • L'IA, en raison de sa démocratisation rapide, soulève des questions cruciales sur la nécessité d'une gouvernance mondiale pour prévenir les dérives potentielles. 
  • La gouvernance de l'IA doit prendre en compte les défis uniques posés par cette technologie, tels que la gestion des biais algorithmiques, le respect de la vie privée, la transparence des systèmes d'IA et la question de la responsabilité en cas de dommages. Elle doit être inclusive, légitime, équitable et efficace, prenant en compte les intérêts de tous les acteurs impliqués, y compris les États, les entreprises technologiques et la société civile.
  • La gouvernance de l'IA doit garantir que les bénéfices de cette technologie soient partagés de manière équitable, au service des grands enjeux de l'humanité comme le développement durable et la lutte contre le changement climatique.
  • La mise en place d'une gouvernance mondiale de l'IA reste un défi majeur, en raison de la diversité et de l'inégalité des acteurs impliqués, mais elle est nécessaire et inévitable compte tenu de la nature transnationale de l'IA. Plusieurs systèmes internationaux sont possibles pour y parvenir.
  • L'idée d'un service public mondial de l'IA, reconnaissant son caractère d'intérêt général, pourrait être une approche innovante pour encadrer le développement et l'utilisation de l'IA dans l'intérêt de l'humanité.

Publié le 26/07/2023