5 min (1403 words) Read

Télécharger le PDF

L’IA peut améliorer les institutions démocratiques en permettant aux citoyens de vraiment faire entendre leur voix

L’opinion redoute que l’intelligence artificielle (IA) ne soit en train de saper la démocratie ou s’apprête à le faire. L’IA risquerait de supprimer des emplois, de déstabiliser l’économie et de creuser le fossé entre riches et pauvres. Elle serait aussi susceptible de renforcer la concentration du pouvoir au sein d’une poignée d’entreprises technologiques et d’affaiblir les structures étatiques destinées à réglementer le secteur. Certains craignent en outre que les géants de la technologie et les États ne délèguent de plus en plus le pouvoir de décision aux machines, pour finir par substituer une « algocratie » à la démocratie, les règles n’étant alors plus définies par le peuple, mais par des algorithmes.

Cette vision dystopique fait fi de notre capacité actuelle à orienter le développement de l’IA. En tant que sociétés humaines, nous avons la capacité politique (du moins pour le moment) et la responsabilité de remédier aux effets préjudiciables que l’IA pourrait avoir. La technologie nous offre aussi la possibilité d’exploiter l’IA pour améliorer notre démocratie de telle sorte que nous soyons collectivement plus en mesure d’administrer, et pas simplement de réglementer, l’IA.

À l’instar d’autres défis éthiques et politiques, comme la modification du génome, la gouvernance de l’IA ne réclame pas uniquement plus d’interventions des experts et un surcroît de réglementation, mais davantage d’expression et de participation citoyennes, par exemple pour décider de la façon dont nous gérerons les effets distributifs de l’IA sur l’économie. Comme d’autres sujets de préoccupation mondiaux, tels que le changement climatique, la bonne gouvernance de l’IA exige que cette voix démocratique soit entendue au niveau des institutions internationales. Par chance, l’IA peut promouvoir une forme de démocratie plus inclusive, participative et délibérative, y compris à l’échelle planétaire.

Expériences participatives

Depuis 40 ans, de nombreux gouvernements lancent des expériences pour que la participation des citoyens à l’élaboration des politiques et des lois ne se résume pas à leur droit de vote. Ces expériences sont conduites principalement au niveau local et à petite échelle, essentiellement comme les assemblées et jurys de citoyens, qui se sont multipliés en lien avec les questions climatiques et d’autres problématiques. En 2020, un rapport de l’OCDE a recensé près de 600 expériences de ce type où un échantillon aléatoire de citoyens s’est impliqué fortement dans un dossier et a formulé des recommandations éclairées (voire, dans un cas, des propositions).

Mais certaines de ces expériences politiques visaient aussi à obtenir une participation massive des citoyens, comme lors des processus constitutionnels organisés en Afrique du Sud, au Brésil, au Kenya, au Nicaragua et en Ouganda dans les années 80 et 90, et plus récemment au Chili, en Égypte et en Islande, où des consultations et des financements participatifs ont été mis en place à très grande échelle pour que les citoyens ordinaires puissent s’exprimer. Certes, toutes ces tentatives n’ont pas été couronnées de succès, mais elles dessinent une tendance assez forte.

Certains gouvernements ont aussi lancé de vastes campagnes de consultation sous diverses formes. Le Grand Débat national lancé par le président français Emmanuel Macron en réponse au mouvement des gilets jaunes et qui a réuni environ 1,5 million de personnes, en est un exemple. À citer également, la conférence sur l’avenir de l’Europe, où des citoyens des pays membres de l’Union européenne (UE) ont été conviés à se prononcer sur les réformes des politiques et des institutions de l’UE, ce qui a incité 5 millions de personnes à visiter le site Internet et 700 000 à participer aux débats.

À l’exception de quelques éléments en ligne, il s’agissait pour l’essentiel de processus faiblement technologiques, analogiques et sans aucun recours à l’IA. Dans ces conditions, submergés par des données brutes extrêmement diverses ou incertains de leur signification, les responsables politiques ont facilement perdu de vue la contribution des citoyens, autorisés à s’exprimer, mais pas toujours entendus. En outre, le niveau de délibération, y compris pour les participants, était souvent superficiel.

La réglementation de l’IA sera sans doute mieux respectée et plus efficace dans des démocraties qui maîtriseront l’IA.
Des débats approfondis

Nous avons désormais la possibilité de transposer ces processus délibératifs à une autre échelle et de les améliorer de façon exponentielle, pour que les voix citoyennes, dans toute leur richesse et leur diversité, fassent la différence. Le cas de la province chinoise de Taiwan illustre cette transition.

Après la révolution des tournesols en 2014, qui a amené au pouvoir des dirigeants politiques férus de technologie, une plateforme de données ouvertes en ligne appelée pol.is a été introduite. Elle permet aux citoyens d’exposer en détail leur opinion sur n’importe quel sujet, de la réglementation d’Uber aux politiques concernant la COVID, et de voter sur les opinions exprimées par d’autres. La plateforme utilise également ces votes pour cartographier l’opinion publique, aidant ainsi les contributeurs à savoir quelles propositions feraient consensus, tout en identifiant clairement les opinions minoritaires et divergentes, voire les groupes de lobbyistes défendant manifestement une ligne officielle. Ceci contribue à une compréhension mutuelle et réduit la polarisation. Les responsables politiques utilisent ensuite les informations qui en résultent pour formuler des politiques publiques reflétant l’ensemble des points de vue.

Ces derniers mois, pol.is a évolué et intègre l’apprentissage automatique avec certaines de ses fonctions pour que l’expérience de la plateforme soit plus délibérative. Les contributeurs peuvent maintenant échanger avec un grand modèle de langage (GML ; issu de l’IA) qui s’exprime au nom de différents groupes d’opinion et aide chaque personne à situer la position de ses alliés, de ses opposants et toutes les positions intermédiaires. Ceci permet de bénéficier d’une expérience véritablement plus délibérative et contribue encore à dépolariser les débats. À l’heure actuelle, cet outil est souvent utilisé pour consulter les résidents et 12 millions de personnes (soit presque la moitié de la population) y participent.

Avec leurs propres défis de gouvernance à relever, les sociétés voient également tout le potentiel des consultations à grande échelle améliorées par l’IA. Après avoir lancé son conseil de surveillance plus classiquement technocratique, composé de juristes et d’experts chargés des décisions relatives aux contenus, Meta (l’ancien Facebook) a commencé à expérimenter en 2022 les forums communautaires, où des groupes d’utilisateurs choisis au hasard dans plusieurs pays peuvent échanger sur la réglementation des contenus concernant le climat. Une initiative encore plus ambitieuse a été lancée en décembre 2022, avec 6 000 utilisateurs représentant 32 pays et 19 langues qui ont débattu pendant plusieurs jours du cyberharcèlement dans le métavers. Dans ce cadre, les délibérations hébergées sur une plateforme de l’Université Stanford étaient modérées par une IA (encore basique) qui attribuait les temps de parole et aidait les groupes à choisir les thématiques et à fixer le temps à y consacrer.

À ce jour, rien ne démontre que la modération par l’IA est plus performante que la modération humaine, mais cela pourrait changer rapidement. Et l’IA présentera alors clairement l’avantage d’être bien moins chère, ce qui n’est pas négligeable si les processus de délibération approfondie entre humains (plutôt qu’entre humains et imitateurs GML comme dans l’expérience taiwanaise) doivent changer d’échelle pour passer de 6 000 personnes à plusieurs millions.

Traduction, résumé, analyse

Les applications de l’IA dans le domaine de la démocratie délibérative sont toujours en phase expérimentale. La traduction instantanée pour des groupes multilingues est la prochaine étape, comme le résumé de délibérations collectives. D’après des études récentes, la précision de l’IA est supérieure de 50 % à la précision humaine pour les tâches de résumé (selon une évaluation conduite par des étudiants de premier cycle formés à comparer des résumés de transcriptions de délibérations produits respectivement par l’IA et des codeurs humains). Cependant, une certaine dose d’intelligence humaine sera sans doute nécessaire pour un grand nombre de ces tâches. Le cas échéant, l’IA sera néanmoins utile aux analystes, aux modérateurs et aux traducteurs humains.

Plusieurs moyens d’améliorer la démocratie grâce à l’IA sont envisageables à terme. OpenAI, la société à l’origine de ChatGPT, vient de lancer un programme de bourses baptisé « Democratic inputs to AI », qui a subventionné les 10 équipes les plus prometteuses au monde pour l’élaboration d’algorithmes applicables à la délibération humaine (pour ne rien vous cacher, je fais partie du groupe d’universitaires qui ont été consultés pour rédiger l’appel à candidatures et sélectionner les lauréats). Il faut espérer que ces outils seront déployés prochainement, en particulier pour servir aux délibérations mondiales sur la gouvernance de l’IA.

Tenir compte des risques

Déployer l’IA dans la sphère démocratique n’est pas sans risques (distorsion des données, confidentialité, potentiel de surveillance, défis juridiques, etc.) et ce, dans presque tous les domaines. Deux autres problèmes se posent, à savoir le fossé numérique et le risque d’exclusion des technosceptiques et des personnes ne maîtrisant pas les technologies numériques. Bon nombre de ces problèmes devront être traités sur les plans politique, économique, juridique et surtout social, plutôt que sous le seul angle de la technologie. Même si la technologie peut avoir son utilité là aussi.

Les problèmes de confidentialité et de surveillance, par exemple, peuvent être résolus par des protocoles sans divulgation de connaissances (ou preuves à connaissances nulles, ou encore ZKP), qui visent à vérifier ou « prouver » l’identité sans collecter de données sur les participants (authentification par SMS ou via une chaîne de blocs). Les protocoles ZKP peuvent servir aux votes en ligne et dans le cadre de délibérations (par exemple pour partager des informations sensibles ou jouer le rôle de lanceur d’alerte). Dans le même temps, l’IA générative peut permettre à tous ceux qui en ont besoin d’avoir accès à des connaissances et des possibilités de tutorat jusque-là très limitées. En tant qu’interlocuteur « sur mesure » des citoyens, l’IA peut expliquer des mesures gouvernementales techniques en s’adaptant à des styles cognitifs particuliers (à l’aide d’images, par exemple) et, au besoin, convertir des contributions orales en contributions écrites.

Malgré ses limites et ses risques, l’IA peut permettre l’avènement d’une version améliorée et plus inclusive de la démocratie qui, le moment venu, conférerait aux gouvernants la légitimité et les connaissances requises pour superviser le développement de l’IA. La réglementation de l’IA sera sans doute mieux respectée et plus efficace dans des démocraties qui maîtriseront l’IA.

Mais il est possible aussi que la démocratie elle-même soit une des victimes de la révolution de l’IA. Il est urgent d’investir dans des outils intelligents qui augmentent le potentiel participatif et délibératif de nos gouvernements.

HELENE LANDEMORE est professeure de science politique à l’Université Yale. Elle est également chercheuse à l’Institute for Ethics in AI de l’Université d’Oxford et conseillère du programme « Democratic inputs to AI » d’OpenAI.

Les opinions exprimées dans la revue n’engagent que leurs auteurs et ne reflètent pas nécessairement la politique du FMI.

Lectures supplémentaires :

Organisation for Economic Co-operation and Development. 2020. https://www.oecd.org/gov/open-government/oecd-deliberative-wave-database-update.pdf

Siu, A., J. Joseph, and D. Hu. Forthcoming. “Finding the Drivers of Opinion Change Using Language Models.” Stanford University Deliberative Democracy Lab working paper, Stanford, CA.