La inteligencia artificial puede fortalecer las instituciones democráticas si vela por que se escuche de verdad la voz de los ciudadanos

Mucha gente cree que la inteligencia artificial (IA) está socavando, o pronto socavará la democracia. Teme que arrebatará puestos de trabajo, desestabilizará la economía y aumentará la brecha entre ricos y pobres, lo que concentraría todavía más el poder en manos de unas pocas empresas tecnológicas y debilitaría las estructuras de gobierno diseñadas para regularlas. Hay quienes temen también que los gigantes tecnológicos y los gobiernos deleguen cada vez más la toma de decisiones humanas a las máquinas, con lo cual la democracia terminaría siendo reemplazada por la “algocracia”, el gobierno no por las personas, sino por los algoritmos.

Esta visión distópica pasa por alto la actual posibilidad de definir el desarrollo de la IA. Nosotros, en cuanto sociedades humanas, disponemos de la capacidad política (por lo menos de momento) y la responsabilidad necesarias para abordar los daños que la IA podría infligirnos. Asimismo, la tecnología nos brinda la oportunidad de aprovechar la IA para fortalecer la democracia de forma que esta consolide nuestra capacidad colectiva de gobernar —y no solo regular— la IA.

Al igual que en otros desafíos éticos y políticos, como la edición del genoma, el gobierno de la IA no requiere únicamente de una mayor intervención y regulación por parte de los expertos, sino también más aportaciones y opiniones de los ciudadanos; por ejemplo, sobre cómo gestionar el impacto distributivo de la IA en la economía. Del mismo modo que ocurre con otros problemas de alcance mundial, como el cambio climático, el gobierno de la IA requiere que esa voz democrática se escuche en las instituciones internacionales. Afortunadamente, la IA puede marcar el comienzo de una forma de democracia más inclusiva, participativa y deliberativa, también a escala mundial.

Experimentos participativos

Durante 40 años, muchos gobiernos han intentado incluir a los ciudadanos de a pie en los procedimientos de formulación de políticas y leyes, más allá de las simples elecciones. En su mayoría, tales experimentos se han llevado a cabo de forma local y a pequeña escala, de forma similar a las asambleas y jurados de ciudadanos que han proliferado en relación con el cambio climático y otros temas. En un informe de 2020, la Organización de Cooperación y Desarrollo Económicos señaló cerca de 600 casos en los que una muestra aleatoria de ciudadanos participaron activamente en un tema y formularon razonadamente recomendaciones de política (y, en un caso, incluso propuestas).

No obstante, algunos de estos experimentos políticos también han buscado la participación masiva, como los procesos constitucionales participativos organizados en Brasil, Kenya, Nicaragua, Sudáfrica y Uganda en las décadas de 1980 y 1990, o más recientemente Chile, Egipto e Islandia, que recurrieron a consultas y colaboraciones masivas para comunicarse con los ciudadanos. Evidentemente, no todos los intentos han tenido éxito, pero sí forman parte de una tendencia significativa.

Asimismo, muchos gobiernos han llevado a cabo campañas de consultas multiformato. Por ejemplo, el Gran Debate Nacional de 2019 impulsado por el presidente francés Emmanuel Macron en respuesta al movimiento de los chalecos amarillos, que contó con la participación de millón y medio de personas, aproximadamente. O la Conferencia sobre el Futuro de Europa, que brindó a los ciudadanos de los países miembros de la Unión Europea la oportunidad de opinar sobre las reformas de las políticas e instituciones de la Unión; cinco millones de personas visitaron el sitio web y 700.000 participaron en el debate.

A pesar de incorporar algunos elementos en línea, por lo general han sido procesos analógicos y de poca tecnología, en los cuales la IA no ha intervenido. Los políticos, abrumados por los datos brutos y multifacéticos, o sin saber con certeza qué significan, han terminado ignorando las aportaciones de los ciudadanos. Se les pidió que hablaran, pero no siempre se les ha escuchado. Además, el nivel de deliberación, incluso para los que sí participaron, fue en muchos casos superficial.

Reforzar la deliberación

Tenemos ahora la oportunidad de ampliar y mejorar de forma exponencial estos procesos deliberativos, para que la voz de los ciudadanos, en toda su riqueza y diversidad, logre marcar la diferencia. La provincia china de Taiwan es ejemplo de tal transición.

Tras el Movimiento Girasol de 2014, que llevó al poder a políticos con conocimientos tecnológicos, se creó una plataforma de código abierto en línea, llamada pol.is. Esta plataforma permite a los ciudadanos expresar opiniones detalladas sobre cualquier tema: desde la regulación de los Uber hasta las políticas para hacer frente a la COVID, así como votar las opiniones de otros. A partir de estos votos, se elabora un mapa de la opinión pública que ayuda a los participantes a entender qué propuestas obtendrían el consenso y que permite identificar claramente las opiniones minoritarias y disidentes, e incluso los grupos de presión con una línea partidaria obvia. De este modo, los ciudadanos se comprenden mejor unos a otros, y se reduce la polarización. Posteriormente, los políticos se sirven de la información resultante para elaborar respuestas de políticas públicas teniendo en cuenta todos los puntos de vista.

En los últimos meses, pol.is ha pasado a integrar el aprendizaje automático en algunas de sus funciones, con el objetivo de que la plataforma ofrezca una experiencia más deliberativa. La plataforma permite ahora utilizar grandes modelos lingüísticos —un tipo de IA— que habla en nombre de diferentes grupos de opinión y ayuda a las personas a entender la posición de sus aliados, oponentes y todos los demás grupos. Así, se consigue que la experiencia sea realmente más deliberativa y contribuya en mayor medida a la despolarización. Hoy en día, esta herramienta suele utilizarse con frecuencia para consultar a los residentes; en ella participan 12 millones de personas, aproximadamente la mitad de la población.

Las sociedades, enfrentadas a sus particulares retos de gobernanza, también son conscientes del potencial que ofrecen las consultas a gran escala aumentadas con IA. Tras poner en marcha el nuevo órgano de supervisión —más clásico y tecnocrático, integrado por abogados y expertos, y creado para tomar decisiones sobre contenidos—, Meta (el antiguo Facebook) comenzó a experimentar en 2022 con los foros comunitarios, en los que grupos de usuarios de varios países, seleccionados aleatoriamente, podían deliberar sobre la regulación de contenidos climáticos. En una iniciativa de diciembre de 2022, todavía más ambiciosa, 6.000 usuarios de 32 países debatieron durante varios días en 19 idiomas sobre el ciberacoso en el metaverso. En el experimento de Meta, las deliberaciones tuvieron lugar en una plataforma propia de la Universidad de Stanford impulsada por IA (todavía básica), que asignó tiempos de intervención, ayudó al grupo a decidir qué temas tratar y les asesoró sobre el momento de dejarlos de lado.

Por ahora, no está demostrado que los moderadores de IA lo hagan mejor que los humanos, pero esto podría cambiar pronto. Cuando llegue el momento, estos tendrán la ventaja de que resultan mucho más baratos, lo cual sí importa si se quiere llegar a ampliar los procesos de deliberación entre personas humanas (y no entre personas humanas y grandes modelos lingüísticos imitadores, como en la experiencia de Taiwan) de 6.000 personas a varios millones.

Traducción, resumen y análisis

La aplicación de la IA en materia de democracia deliberativa se encuentra todavía en fase de exploración. La próxima frontera es la traducción instantánea entre grupos multilingüísticos, así como el resumen de deliberaciones colectivas. Estudios recientes indican que los resúmenes elaborados por la IA son un 50% más precisos que los de personas humanas (según se desprende de la evaluación llevada a cabo por estudiantes que compararon los resúmenes de transcripciones de deliberaciones preparados por IA y codificadores humanos). No obstante, probablemente muchas de estas tareas requerirán de criterio humano en cierto grado. En tal caso, la IA seguiría siendo de gran ayuda para analistas, moderadores y traductores humanos.

Se vislumbran también nuevas formas en las que la IA puede mejorar la democracia. OpenAI, la empresa que creó ChatGPT, presentó recientemente un programa de becas llamado Democratic inputs to AI. Con estas becas, se subvencionaron los 10 equipos más prometedores del mundo que trabajan en algoritmos para la deliberación humana (en aras de la transparencia: yo formo parte de la junta de asesores académicos que ayudó a formular la convocatoria de becas y a seleccionar a los ganadores). Con suerte, estas herramientas pronto podrán implementarse con el objetivo, entre otros, de acompañar la deliberación mundial sobre el gobierno de la IA.

Abordar los riesgos

La utilización de IA en la democracia conlleva riesgos —distorsión de datos, problemas de privacidad, posibles instancias de vigilancia y escollos jurídicos— prácticamente en todos los ámbitos. Asimismo, presenta el problema de la brecha digital y la posible exclusión de grupos analfabetos y tecnoescépticos. Muchos de estos problemas deberán abordarse primero y principalmente desde los ámbitos político, económico, jurídico y social, más que solo desde el punto de vista tecnológico. Así y todo, la tecnología también puede resultar útil.

Por ejemplo, los problemas de vigilancia y privacidad pueden remediarse a través de herramientas como las pruebas de conocimiento cero (ZPK, por su sigla en inglés), cuyo objetivo es verificar o “comprobar” la identidad sin recopilar datos sobre los participantes (por ejemplo, mediante autenticación por mensaje de texto o cadena de bloques). Las ZKP pueden utilizarse tanto en votaciones en línea como en contextos deliberativos; por ejemplo, para compartir información confidencial o hacer las veces de denunciante. Entretanto, la IA generativa puede facilitar conocimientos y recursos de aprendizaje anteriormente escasos a todo aquel que los necesite. En cuanto interlocutora adaptada a los ciudadanos, es capaz de explicar cuestiones de política técnicas utilizando el estilo cognitivo particular de la persona (por ejemplo, a través de imágenes) y de convertir sus contribuciones orales en textos escritos, si es necesario.

Pese a tener limitaciones y riesgos, la IA puede abrir las puertas a una mejor y más inclusiva versión de la democracia, una que a su vez dote a los gobiernos de la legitimidad y los conocimientos necesarios para supervisar el desarrollo de la IA. Probablemente, la reglamentación de la IA se controlará mejor y será más eficaz en las democracias empoderadas con IA.

Aun así, existe el riesgo de que la propia democracia sea víctima de la revolución de la IA. Es preciso invertir urgentemente en herramientas de IA para acrecentar de forma segura el potencial de participación y deliberación de nuestros gobiernos.

HÉLÈNE LANDEMORE es profesora de Ciencias Políticas en la Universidad de Yale. También es miembro del Instituto de Ética de la IA de la Universidad de Oxford y asesora del programa Democratic inputs to AI en OpenAI.

Las opiniones expresadas en artículos y otros materiales pertenecen a los autores; no reflejan necesariamente la política del FMI.