Hay dos maneras de verlo. Existe lo que a mí me gusta denominar amenazas a la democracia, en las que la inteligencia artificial agrava los problemas existentes, como los problemas de privacidad, la volatilidad de los mercados y la desinformación. Y luego están las amenazas existenciales para la humanidad, como la IA desalineada (IA que no se comporta en consonancia con los objetivos y valores humanos previstos), la guerra con drones o la proliferación de armas químicas y biológicas.
Creo que es una respuesta válida para la mayor parte de la historia de la humanidad: la tecnología cambia, la humanidad se adapta y se alcanza un nuevo equilibrio. Pero lo que hace diferente a esta innovación tecnológica en particular es que sus creadores no la entienden del todo. Si pensamos en otros avances tecnológicos, como el automóvil, puede que yo no sepa arreglar mi vehículo, pero hay alguien que sí. Lo que ocurre con la IA generativa es que, aunque sus creadores entienden las redes neuronales y el aprendizaje profundo —los algoritmos que sustentan la IA moderna—, no pueden predecir lo que va a hacer un modelo.
Eso significa que, si algo va terriblemente mal, no pueden saber inmediatamente cómo arreglarlo. Es este elemento de conocimiento el que nos lleva más allá de las capacidades humanas ordinarias para pensar y comprender. En ese sentido, es realmente como inteligencia extraterrestre.
Las amenazas existenciales para la humanidad no significan necesariamente robots asesinos: pueden ser sistemas de IA que se desbocan, que hacen cosas para las que no fueron diseñados o que no se preveía que pudieran o fueran a hacer. Las amenazas existenciales surgirán si la IA alcanza un umbral en el que se confíe en ella para tomar decisiones sin intervención humana.
Los drones son un buen ejemplo. Se podría pensar que, de acuerdo, los pilotos de combate se queden en casa; dejamos que las computadoras luchen contra las computadoras, y todos ganan. Pero siempre hay daños colaterales en este tipo de guerra, y cuanta más autonomía tengan estos sistemas, mayor será el peligro.
Y luego está el riesgo de que la IA se utilice para crear armas biológicas o químicas. La cuestión básica es cómo evitar que la tecnología sea utilizada indebidamente por agentes malintencionados. Lo mismo ocurre con los ciberataques, en los que un solo pirata informático podría aprovechar modelos de IA de código abierto —es decir, modelos que están a disposición del público y pueden personalizarse y ejecutarse desde una computadora portátil— para irrumpir en todo tipo de sistemas.
Ya sin IA, el actual sistema de redes sociales es fundamentalmente incompatible con la democracia. Para debatir los próximos pasos políticos, se necesita un núcleo de personas que crean que las mismas cosas son ciertas, y eso ha saltado por los aires debido a los algoritmos de recomendación que generan transmisiones virales de odio, desinformación y propaganda. La IA solo automatiza todas esas cosas y facilita la amplificación y distorsión del discurso humano. La automatización es también lo que podría traer una mayor volatilidad a los mercados financieros, ya que ahora tenemos todos estos modelos informáticos automatizados de IA para las transacciones financieras en las que las cosas suceden rápidamente sin intervención humana.
La IA también supone una amenaza muy real para la autonomía individual. La mejor forma en que puedo describirlo es que, si alguna vez te han facturado algo incorrectamente, es casi imposible que te atienda un humano por teléfono. En lugar de eso, tienes que pasar por todos esos robots que te hacen preguntas y dan vueltas en círculos, sin que te atiendan directamente. Así es como caracterizaría la verdadera amenaza insidiosa de la IA: si la gente confía cada vez más en ella, al final todos nos quedaremos atrapados en este mundo kafkiano que nos hace sentir superpequeños e insignificantes y como si no tuviéramos derechos humanos básicos.
¿Cómo definiría la gobernanza de la IA?
Gobernanza es decidir cómo vamos a trabajar juntos, a nivel municipal, estatal, federal y mundial, para hacer frente a esta inmensa innovación tecnológica que va a transformar nuestra sociedad y nuestra política.
¿Qué legislación u otras iniciativas ha puesto en marcha Estados Unidos para protegerse de las amenazas de la IA?
La principal iniciativa ha sido la orden ejecutiva de Joe Biden sobre IA, firmada en 2023. La orden, que da instrucciones al gobierno federal sobre qué priorizar y cómo configurar la política, se centra en garantizar que la IA sea segura y ética estableciendo normas para las pruebas, protegiendo la privacidad y abordando los riesgos para la seguridad nacional, al tiempo que fomenta la innovación y la colaboración internacional. Esencialmente, esboza barandillas que sostienen la democracia en lugar de socavarla. El presidente Donald Trump ya ha revocado esta orden.
La administración Biden también creó el Instituto de Seguridad de la IA, que se centra en el avance de la ciencia y las prácticas de seguridad de la IA, abordando los riesgos para la seguridad nacional, la seguridad pública y los derechos individuales. No está claro cuál será el destino de ese instituto bajo la administración Trump.
¿Qué leyes nacionales considera más importantes para frenar la IA?
Tenemos que dejar muy claro que los humanos tienen derechos, pero los algoritmos no. El debate nacional sobre la libertad de expresión en las plataformas en línea está actualmente distorsionado y confuso. La Corte Suprema de EE.UU. parece haber creído que las plataformas de redes sociales son solo portadoras de información; solo transmiten cosas que la gente publica de alguna manera cronológica. Sin embargo, la reciente decisión unánime de mantener la prohibición de TikTok sugiere que su interpretación es cada vez más precisa.
Todo lo que se ve en Internet está mediado por un algoritmo diseñado específicamente para optimizar el compromiso, y resulta que los seres humanos se comprometen más cuando están enfadados. Y tenemos que responsabilizar a la empresa que diseñó ese algoritmo de cualquier daño causado. Las empresas tienen derecho a la libertad de expresión. Pero una empresa es un conjunto de seres humanos. Y eso es diferente de una máquina, que es un instrumento de los seres humanos.
¿Ha avanzado Estados Unidos en este sentido?
En Estados Unidos hemos presentado una ley para derogar la Sección 230 que, simplificando, es un escudo de responsabilidad que dice que las plataformas no son editores y, por tanto, no son responsables de nada de lo que ocurra en ellas. No hay ninguna otra empresa en Estados Unidos, aparte de las empresas tecnológicas, que tenga este escudo de responsabilidad.
Al contar con ese escudo, los tribunales no han tenido que ocuparse de ninguna de estas cuestiones ni de cómo afectan a la democracia constitucional estadounidense. Si se aprueba la legislación propuesta, el artículo 230 quedará derogado a finales de 2025, lo que permitirá que la jurisprudencia de la Primera Enmienda se desarrolle para nuestra plaza pública virtual y que las plataformas sean responsables como cualquier otra empresa.
Más allá de la orden ejecutiva de Biden, ¿hay alguna propuesta legislativa sobre IA en EE.UU.?
Hay mucha legislación ya redactada para la seguridad de la IA. Está la Ley de responsabilidad algorítmica, que exige a las empresas evaluar el impacto de los sistemas automatizados para garantizar que no crean resultados discriminatorios o sesgados; está la Ley de responsabilidad DEEPFAKES, que pretende regular el uso de la IA para crear contenido deepfake engañoso o perjudicial; y está la Ley de innovación del futuro de la inteligencia artificial, que fomenta el estudio del impacto de la IA en la economía, la mano de obra y la seguridad nacional. Solo nos queda trabajar para que todas estas propuestas legislativas se hagan realidad.
Pero ahora mismo no nos estamos centrando lo suficiente en eso. Estados Unidos es la sede de las grandes empresas tecnológicas, y lo que hace Estados Unidos es importante para el mundo. Pero la IA no fue objeto de debate durante la campaña electoral. Tampoco estamos teniendo el debate público necesario para que los políticos hagan algo ante la ausencia total de barandillas. Europa ha sido pionera en la gobernanza de la IA, y hay mucho que podemos aprender de la UE.
¿Qué tipo de normativa ha establecido la Unión Europea?
Está la Ley de inteligencia artificial de la UE, que clasifica los sistemas de IA en niveles de riesgo (inaceptable, alto, limitado, mínimo) e impone normas más estrictas a las aplicaciones de mayor riesgo; la Ley de mercados digitales, dirigida a las grandes plataformas en línea para evitar prácticas monopolísticas; el Reglamento de servicios digitales, que obliga a las plataformas a eliminar contenidos ilegales, combatir la desinformación y ofrecer mayor transparencia sobre algoritmos y anuncios.
Por último, está el anterior GDPR —el reglamento general de protección de datos—, que da a los individuos más control sobre sus datos personales e impone requisitos a las empresas para la recopilación, procesamiento y protección de datos. El estado de California adoptó una versión del GDPR en 2018.
¿Cómo cree que podemos conseguir una gobernanza mundial de la IA? ¿Deberíamos tener tratados internacionales como los que tenemos para las armas nucleares?
Creo que deberíamos aspirar a tratados, sí, pero no van a ser como los de las armas nucleares, porque las armas nucleares son mucho más fáciles de regular. La gente corriente no tiene acceso a los componentes necesarios para construir una bomba nuclear, mientras que en el caso de la IA hay muchas cosas disponibles comercialmente.