Las autoridades deben atenerse a cinco principios rectores para gobernar la IA de manera eficaz

La inteligencia artificial traerá a la vida de los ciudadanos y a las sociedades avances científicos revolucionarios, un acceso sin precedentes a la tecnología, información falsa y nociva que perturbará las democracias y turbulencias económicas. Al mismo tiempo, desencadenará una transformación radical de la estructura y el equilibrio de poder a escala mundial.

Esto sitúa a las instituciones políticas de todo el mundo ante un reto sin igual: tendrán que establecer normas nuevas para regular una tecnología novedosa y dinámica, mitigar sus posibles riesgos y reconciliar los intereses dispares de unos actores geopolíticos que, cada vez más, procederán del sector privado. Asimismo, hará falta una gran coordinación entre los gobiernos, algunos de los cuales pueden ser rivales estratégicos y adversarios.

En 2023, los gobiernos de todo el mundo comenzaron a reaccionar ante este desafío. De Bruselas a Beijing y Bangkok, los legisladores están trabajando en la elaboración de marcos regulatorios para gobernar la IA, al mismo tiempo que la tecnología que pretenden regular avanza a un ritmo exponencial. Reunidos en Japón, los líderes del Grupo de los Siete pusieron en marcha el “Proceso de Hiroshima”, con el fin de abordar algunas de las dificultades más complejas que plantea la IA generativa; por su parte, las Naciones Unidas crearon un nuevo órgano asesor de alto nivel sobre IA. En la reunión del Grupo de los Veinte celebrada en Nueva Delhi, el Primer Ministro indio Narendra Modi instó a los países a establecer un nuevo marco para una gobernanza de la IA responsable y centrada en el ser humano, mientras que Ursula von der Leyen, Presidenta de la Comisión Europea, abogó por crear un nuevo órgano de supervisión del riesgo de la IA basado en el modelo del Grupo Intergubernamental de Expertos sobre el Cambio Climático.

En noviembre, el Gobierno del Reino Unido acogió la primera cumbre de líderes mundiales dedicada a los riesgos para la seguridad generados por la IA. Incluso en Estados Unidos, país que alberga a las mayores empresas de IA y que tradicionalmente es reacio a regular las nuevas tecnologías, se da por seguro que se aprobará regulación para la IA y esta cuestión suscita un consenso poco frecuente entre los dos principales partidos.

Esta intensa actividad es alentadora. En un plazo notablemente breve, los líderes mundiales han dado prioridad a la necesidad de gobernanza de la IA. Con todo, convenir en que la regulación es necesaria es solo el requisito mínimo. Determinar qué tipo de regulación se debe establecer es igual de importante. El reto que plantea la IA no se parece a ningún otro que hayamos afrontado, y sus características singulares, unidas a los incentivos geopolíticos y económicos de los principales actores, obligan a ser creativos en el diseño de los regímenes de gobernanza.

La gobernanza de la IA no es un problema único. En el caso del cambio climático, puede haber muchas vías para lograr el objetivo último de reducir las emisiones de gases de efecto invernadero, pero el objetivo principal es único. La IA es diferente, ya que las políticas de IA han de estimular la innovación para solucionar problemas irresolubles y, al mismo tiempo, evitar una proliferación peligrosa, y deben contribuir a lograr una ventaja geopolítica, pero evitando que el mundo se encamine a ciegas hacia una nueva carrera armamentística.

La paradoja de la potencia de la IA

La naturaleza de la propia tecnología constituye una complicación adicional. La IA no puede regularse como las tecnologías anteriores porque no se parece a ninguna de ellas. No solo plantea retos para las políticas públicas; sus características singulares hacen que resolver esos problemas sea cada vez más difícil. Esa es la paradoja de la potencia de la IA.

Para empezar, todas las tecnologías evolucionan, pero la IA es hiperevolutiva. El ritmo de mejora de la IA superará con creces la ya potente Ley de Moore, que predijo, acertadamente, que la potencia computacional se duplicaría cada dos años. En lugar de duplicarse cada dos años, la cantidad de computación utilizada para entrenar los modelos de IA más potentes se ha multiplicado por 10 cada año del último decenio. Algo que antes tardaba varias semanas en procesarse se procesa ahora en segundos. Sin duda, las tecnologías que permiten la aplicación de la IA van a ser cada vez más pequeñas, más baratas y más accesibles.

No obstante, el carácter único de la IA no está relacionado solo con el crecimiento de la capacidad computacional. Pocas personas predijeron su evolución, desde su capacidad para entrenar grandes modelos lingüísticos hasta su capacidad para resolver problemas complejos o incluso componer música. Es posible que pronto estos sistemas puedan funcionar de forma casi autónoma. Esto ya sería revolucionario en sí mismo, pero además tendría una consecuencia aún más espectacular: la IA podría convertirse en la primera tecnología capaz de mejorarse a sí misma.

La IA prolifera fácilmente. Como ocurre con cualquier software, los algoritmos de la IA son mucho más fáciles y baratos de copiar y de compartir (o robar) que los activos físicos. Además, a medida que adquieran mayor potencia —y la computación se abarate—, pronto esos modelos podrán utilizarse en los teléfonos inteligentes. Ninguna tecnología tan potente ha sido nunca tan accesible, para tantas personas y de forma tan rápida. Y como su costo marginal —por no hablar del costo marginal de la entrega— es cero, una vez se dan a conocer, los modelos de IA pueden utilizarse, y se utilizarán, en cualquier parte. La mayoría serán seguros y muchos se han entrenado de manera responsable. Pero, como con los virus, basta con un modelo malintencionado (o un “brote”) para causar estragos.

Los incentivos favorecen la no regulación de la IA

Como consecuencia de la naturaleza de la IA, los incentivos de los actores en torno a esta tecnología también son distintos. Las tecnologías de doble uso no son nuevas (por eso la proliferación nuclear para uso civil se vigila estrechamente), y la IA tampoco es la primera tecnología cuyos usos civiles y militares no están claramente delimitados. Pero mientras que tecnologías como el enriquecimiento nuclear son altamente complejas y requieren mucho capital, el bajo costo de la IA permite su aplicación ilimitada, ya sea con fines civiles o militares. Por eso la IA va mucho más allá que el desarrollo de software; se trata de un medio totalmente nuevo y peligroso de proyectar el poder.

Restringir la IA es suficientemente difícil por motivos tecnológicos. Pero su potencial para proporcionar más riqueza y poder a actores ya de por sí poderosos hace que los gobiernos y las empresas privadas que desarrollan la IA tengan incentivos para hacer exactamente lo contrario. En pocas palabras, la supremacía en el ámbito de la IA es un objetivo estratégico de todos los gobiernos y las empresas que cuentan con los recursos necesarios para competir. Si la Guerra Fría se caracterizó por la carrera en pos de las armas nucleares, la actual confrontación geopolítica reflejará la competencia mundial por la IA. Estados Unidos y China consideran la supremacía en IA un objetivo estratégico que deben alcanzar, y evitar que logre el otro. La consecuencia de esta dinámica de suma cero es que Beijing y Washington centran sus esfuerzos en acelerar el desarrollo de la IA, y no en ralentizarlo.

Si la supervisión y verificación nucleares resultaron sumamente complicadas hace 30 años, aplicarlas ahora al ámbito de la IA será aún más difícil. Incluso si las potencias mundiales estuvieran dispuestas a frenar la IA, no hay garantía de que pudieran lograrlo, puesto que, como en la mayoría del mundo digital, todos los aspectos de la IA están actualmente bajo el control del sector privado. Además, aunque el puñado de grandes empresas tecnológicas que controlan la IA pueda preservar su ventaja en el futuro previsible, es igualmente probable que la proliferación gradual de esta tecnología atraiga a un número cada vez mayor de actores pequeños a este espacio, lo que complicaría la gobernanza. Sea como sea, las empresas privadas y los tecnológos que controlarán la IA tienen pocos incentivos para la autorregulación.

Cualquiera de las características que acabamos de describir tensaría por sí sola los modelos tradicionales de gobernanza; todas juntas hacen que esos modelos sean del todo inadecuados y que el desafío de gobernar la IA no se parezca a ninguno de los afrontados por los gobiernos en el pasado.

Principios de la gobernanza

Para que la gobernanza mundial de la IA tenga éxito, deberá reflejar sus características únicas. La primera de ellas es que, en su condición de tecnología hiperevolutiva, el progreso de la IA es intrínsecamente impredecible. Las autoridades deben tener en cuenta que, dada esa imprevisibilidad, las normas que aprueben hoy pueden no ser eficaces o incluso pertinentes dentro de unos meses, y mucho menos dentro de unos años. Restringir la capacidad de actuación de los reguladores con regímenes inflexibles sería un error.

La mejor forma de contribuir a una buena gobernanza sería establecer una serie de principios básicos a partir de los cuales se formularían las políticas en materia de IA.

  • Precaución: El perfil de riesgo-recompensa de la IA es asimétrico; aunque esta tecnología tiene la capacidad de generar enormes beneficios, las autoridades deben establecer sistemas que nos protejan de sus desventajas potencialmente catastróficas. El principio de precaución, que ya se aplica en muchos ámbitos, debe adaptarse a la IA y consagrarse en cualquier régimen de gobernanza.
  • Agilidad: Las estructuras de formulación de políticas suelen ser estáticas y priorizar la estabilidad y la previsibilidad sobre el dinamismo y la flexibilidad. Este tipo de estructuras no funcionarán con una tecnología tan extraordinaria como la IA. La gobernanza de la IA ha de ser ágil, adaptativa y permitir la autocorrección, ya que esta tecnología cambia a gran velocidad y es hiperevolutiva y capaz de mejorarse a sí misma.
  • Inclusividad: La mejor regulación sectorial, especialmente en el sector tecnológico, siempre ha sido la que se aplica en colaboración con el sector comercial, y esto es especialmente importante en el caso de la IA. Dado el carácter exclusivo (al menos de momento) del desarrollo de la IA, y la complejidad de esta tecnología, la única forma que los reguladores tienen de vigilar debidamente la IA es colaborar con las empresas tecnológicas privadas. Para reflejar la naturaleza transfronteriza de la IA, los gobiernos deberían lograr que las empresas suscriban convenios internacionales. Incluir a las empresas privadas en la alta diplomacia puede resultar inaudito, pero excluir a quienes tienen tanto control abocaría al fracaso a cualquier estructura de gobernanza incluso antes de ponerla en marcha.
  • Impermeabilidad: Para que la gobernanza de la IA funcione, debe ser impermeable; dada su capacidad para proliferar fácilmente, que un solo actor decida incumplir el régimen crearía un peligroso precedente. Por lo tanto, todos los mecanismos de cumplimiento deberían ser herméticos, con un sistema de adhesión sencillo que fomente la participación y un mecanismo de salida costoso que disuada a quienes se planteen incumplir la normativa.
  • Focalización: En vista de que la IA tiene innumerables aplicaciones y de la complejidad de su gobernanza, un régimen de gobernanza único es insuficiente para abordar las diversas fuentes de riesgo de esta tecnología. En la práctica, para determinar qué herramientas son apropiadas para abordar determinados riesgos será necesario elaborar una taxonomía viva y activa de los distintos efectos potenciales de la IA. Por lo tanto, la gobernanza de la IA debe ser modular, basada en los riesgos y focalizada, en lugar de articularse mediante un régimen universalmente válido.

Gobernar la IA será uno de los desafíos más difíciles que la comunidad internacional tendrá que afrontar en las próximas décadas. Tan importante como la necesidad perentoria de regular la IA es el deber inexcusable de regularla correctamente. Los debates actuales sobre la política de IA tienden con demasiada frecuencia a centrarse en una falsa disyuntiva entre el progreso y la catástrofe (o las ventajas geopolíticas y económicas frente a la mitigación de riesgos). En lugar de pensar con creatividad, demasiado a menudo se conciben soluciones que parecen paradigmas para problemas del pasado. Eso no va a funcionar en la era de la IA.

La formulación de políticas acertadas será vital, pero para lograr ese objetivo se necesitan instituciones sólidas. Para crear esas instituciones, la comunidad internacional tendrá que acordar un marco conceptual que determine el modo en que pensamos sobre la IA. Los principios que proponemos en este artículo se ofrecen como un punto de partida.

IAN BREMMER es presidente y fundador de Eurasia Group y GZERO Media.

MUSTAFA SULEYMAN es director ejecutivo y cofundador de Inflection AI.

Las opiniones expresadas en artículos y otros materiales pertenecen a los autores; no reflejan necesariamente la política del FMI.