5 min (1403 words) Read

Télécharger le PDF

Les décideurs doivent adhérer à cinq grands principes pour gouverner efficacement l’IA

L’intelligence artificielle (IA) va nous exposer à des progrès scientifiques révolutionnaires, à un accès sans précédent à la technologie, à une désinformation toxique bouleversant les démocraties et à des perturbations économiques. Ce faisant, elle va provoquer un changement fondamental dans la structure et l’équilibre des puissances dans le monde.

Les institutions politiques du monde entier se retrouvent donc face à un défi unique, celui de créer des normes adaptées à une nouvelle technologie dynamique, d’atténuer ses risques potentiels et d’équilibrer les intérêts géopolitiques d’acteurs divers et variés. Ces derniers viendront de plus en plus du secteur privé, ce qui exigera un haut niveau de coordination entre États, y compris entre concurrents et adversaires sur le plan stratégique.

L’IA peut devenir la première technologie capable de s’améliorer toute seule.

En 2023, de Bruxelles à Bangkok en passant par Pékin, les législateurs élaborent des cadres réglementaires pour gouverner une IA au développement exponentiel. Au Japon, les dirigeants du G7 ont lancé le « processus d’Hiroshima » afin de s’attaquer à certaines des questions les plus épineuses soulevées par l’IA générative, et l’ONU a créé un organisme consultatif sur l’IA. Au sommet du G20 à New Delhi, le Premier ministre indien Narendra Modi a appelé de ses vœux un nouveau cadre pour une gouvernance de l’IA responsable et centrée sur l’humain, et la présidente de la Commission européenne, Ursula von der Leyen, s’est exprimée en faveur d’un nouvel organe de surveillance des risques de l’IA inspiré du GIEC.

En novembre, le Royaume-Uni a accueilli le premier sommet mondial sur les risques associés à l’IA. Même aux États-Unis, qui accueillent les plus grosses sociétés d’IA du monde et sont généralement rétifs à encadrer les nouvelles technologies, la réglementation de l’IA apparaît inéluctable et, chose rare, elle fait l’objet d’un consensus bipartite.

Les décideurs mondiaux n’ont pas tardé à élever la gouvernance de l’IA au rang de priorité. C’est encourageant, mais il est tout aussi important de déterminer le type de réglementation à adopter. L’IA ne ressemble à aucun défi précédent, et ses caractéristiques uniques, conjuguées aux motivations géopolitiques et économiques des principaux acteurs, exigent une gouvernance créative.

En matière de changement climatique, les moyens de réduire les émissions sont nombreux, mais l’objectif global est unique. Avec l’IA, les autorités doivent à la fois stimuler l’innovation afin de relever des défis insurmontables et d’éviter une dangereuse prolifération, et se donner les moyens d’obtenir un avantage géopolitique sans déclencher une nouvelle course à l’armement.

Le paradoxe de la puissance de l’IA

L’IA ne peut être gouvernée comme une technologie existante, car elle est hors cadre. En plus de poser des problèmes aux autorités, ses caractéristiques uniques rendent la résolution de ces problèmes de plus en plus ardue. C’est tout le paradoxe de la puissance de l’IA.

Toutes les technologies évoluent, mais l’IA est hyperévolutive. Le rythme d’amélioration de l’IA dépassera largement la puissante loi de Moore, qui avait prévu le doublement de la puissance des ordinateurs tous les deux ans. La puissance de calcul utilisée pour former les modèles les plus puissants d’IA est multipliée par 10 tous les ans depuis 10 ans. Des opérations qui prenaient deux semaines s’effectuent en quelques secondes. Les technologies à la base de l’IA deviendront plus intelligentes, moins chères et plus accessibles.

Mais le caractère unique de l’IA ne se résume pas à l’augmentation des capacités de calcul. Peu de monde avait prédit l’évolution de l’IA, depuis la formation de grands modèles de langage jusqu’à la résolution de problèmes complexes ou à la composition de musique. Bientôt, ces systèmes pourraient être quasi autonomes. Cette évolution, déjà révolutionnaire en soi, pourrait faire de l’IA la première technologie capable de s’améliorer toute seule.

L’IA prolifère facilement. Comme pour tout logiciel, les algorithmes de l’IA sont beaucoup plus faciles et moins chers à copier et partager (ou voler) que des biens physiques. Et comme ces algorithmes gagnent en puissance et que la puissance de calcul devient meilleur marché, ces modèles fonctionneront bientôt sur les téléphones intelligents. Jamais une technologie aussi puissante n’avait été aussi rapidement et largement accessible. Dans la mesure où leur coût marginal (sans parler du coût marginal de la livraison) est nul, les modèles d’IA peuvent se retrouver et se retrouveront partout dès leur sortie. La plupart seront sûrs et formés de façon responsable, mais, comme avec les virus, il suffit d’un modèle malveillant ou « dissident » pour semer le trouble.

La tentation du laissez-faire

La nature de l’IA suppose aussi des motivations différentes. Les technologies à double usage ne datent pas d’hier (la prolifération du nucléaire civil est surveillée de près), et l’IA n’est pas la première technologie où la frontière entre les usages civils et militaires est floue. Mais, si des technologies comme l’enrichissement de l’uranium sont complexes et onéreuses, le faible coût de l’IA la rend déployable à l’infini, dans un cadre civil ou militaire. En ce sens, l’IA est un moyen inédit et très dangereux de projeter la puissance.

Il est déjà difficile de restreindre l’IA sur le plan technologique. Et comme elle peut enrichir et renforcer des acteurs influents, les autorités et les sociétés privées développant l’IA sont incitées à faire précisément l’inverse. Pour faire simple, la suprématie en matière d’IA est l’objectif stratégique de tout État et toute société ayant les ressources de relever le défi. Là où la Guerre froide avait été rythmée par une course à l’armement nucléaire, la rivalité géopolitique actuelle se traduira par une concurrence mondiale autour de l’IA. Pour les États-Unis et la Chine, la suprématie en matière d’IA est un objectif stratégique à atteindre et dont il faut priver l’autre. Dans cette dynamique à somme nulle, Pékin et Washington appuient davantage sur l’accélérateur que sur le frein.

Il était déjà compliqué de surveiller les activités dans le nucléaire il y a 30 ans ; il sera encore plus difficile de le faire pour l’IA. Même si les puissances mondiales avaient l’intention de maîtriser l’IA, rien ne garantit qu’elles seraient capables de le faire, car c’est le privé qui contrôle la quasi-totalité de l’IA. Si les quelques bigtechs qui contrôlent actuellement l’IA devraient conserver leur avantage sur l’avenir prévisible, la prolifération progressive de l’IA verra certainement de plus en plus de petits acteurs pénétrer le secteur, rendant sa gouvernance encore plus complexe. En tout cas, les sociétés privées et les spécialistes qui contrôleront l’IA ne seront que peu incités à s’autoréglementer.

Chacune de ces spécificités mettrait à l’épreuve les modèles de gouvernance traditionnels. Mises bout à bout, elles les rendent inadéquats et exposent les autorités à un défi encore jamais vu.

Principes de gouvernance

Pour être efficace, la gouvernance de l’IA doit s’adapter à ses caractéristiques uniques. La première, c’est qu’en raison du caractère hyperévolutif de l’IA, les progrès dans ce domaine sont imprévisibles. Ainsi toute mesure adoptée aujourd’hui ne sera pas forcément efficace ni même pertinente dans quelques mois, et encore moins dans quelques années. On ferait donc fausse route à imposer des régimes rigides.

Il serait plus utile d’établir un ensemble de principes de départ sur lesquels la gouvernance de l’IA reposerait :

  • Précaution : Le profil risque–bénéfice de l’IA est asymétrique. Bien que le potentiel de l’IA laisse entrevoir des bienfaits colossaux, il convient de se prémunir de ses défauts potentiellement catastrophiques. Déjà largement utilisé, le principe de précaution doit être adapté à l’IA.
  • Réactivité : Les mesures sont généralement élaborées à partir de structures statiques privilégiant la stabilité et la prévisibilité par rapport au dynamisme et à la flexibilité. Cela ne fonctionnera pas avec l’IA. La gouvernance doit allier réactivité, évolutivité et autocorrection, car l’IA conjugue rapidité, hyperévolutivité et autoamélioration.
  • Inclusivité : Les meilleures réglementations, en particulier dans la technologie, ont toujours fonctionné en collaboration avec le secteur privé. Cela est particulièrement valable pour l’IA. Compte tenu de la nature exclusive (pour l’instant au moins) du développement de l’IA (et de la complexité de la technologie), le seul moyen de superviser efficacement l’IA consiste à collaborer avec les entreprises de technologie. L’IA ne connaissant pas de frontières, les autorités doivent impliquer les sociétés dans des accords internationaux. Cette inclusion serait inédite, mais une exclusion tuerait dans l’œuf toute structure de gouvernance.
  • Imperméabilité : Étant donné la capacité de l’IA à proliférer facilement, la moindre faille pourrait faire fuiter un modèle dangereux. Tout mécanisme de conformité doit donc être hermétique, avec une entrée facile afin d’encourager la participation et une sortie coûteuse afin de décourager la désobéissance.
  • Ciblage : Compte tenu du caractère généraliste de l’IA et des complexités liées à son encadrement, un seul régime de gouvernance ne suffit pas à couvrir les différences sources de risques. Pour déterminer les outils à même de cibler ces risques, il faudra une taxonomie évolutive des différentes répercussions potentielles de l’IA. La gouvernance doit être ciblée, fondée sur les risques et modulaire, et non universelle.

La gouvernance de l’IA sera l’un des défis les plus ardus de la communauté internationale dans les décennies à venir. Il est tout aussi impératif de réglementer l’IA que de le faire correctement. Les discussions au sujet des politiques en matière d’IA se soldent trop souvent par un faux débat entre progrès et échec (ou entre avantages géopolitiques et économiques, et atténuation des risques). Au lieu d’être créatives, les solutions s’apparentent trop souvent aux paradigmes des problèmes d’hier.

Il sera essentiel de déployer des mesures de qualité, mais cela passe par de bonnes institutions. Pour les mettre en place, la communauté internationale doit s’entendre sur un cadre conceptuel. Nous proposons de partir de ces principes.

IAN BREMMER est le président et fondateur d’Eurasia Group et de GZERO Media.

MUSTAFA SULEYMAN est PDG et cofondateur d’Inflection AI.

Les opinions exprimées dans la revue n’engagent que leurs auteurs et ne reflètent pas nécessairement la politique du FMI.