Hay una discrepancia entre la aparente alta probabilidad de que existan civilizaciones más avanzadas que la nuestra en alguna parte del universo y la total falta de pruebas de que eso sea así. Algunos científicos resuelven este enigma con la teoría del Gran Filtro, que dice que estas civilizaciones existen, pero desaparecen antes de alcanzar el conocimiento tecnológico suficiente como para salir de su planeta. Las guerras, el impacto de un gran meteorito contra el planeta o el cambio climático pueden ser algunas de las razones de ese Gran Filtro que provoca su extinción. Pero ahora un investigador acaba de añadir una posible causa más a la lista: una superinteligencia artificial descontrolada, una inteligencia superior a la natural que se desarrolla tan rápido que desafía la supervivencia y la longevidad de las civilizaciones tecnológicas, avanzadas.
El famoso físico italiano, y uno de los pioneros de la energía nuclear, Federico Fermi, se hizo en 1950 una pregunta a propósito de la existencia de otras civilizaciones extraterrestres que todavía resuena más de siete décadas después: “¿Dónde está todo el mundo?”. Si es cierto que hay unos miles de billones de estrellas en el Universo y trillones de planetas que pueden albergar vida, es raro que no tengamos noticias de una civilización extraterrestre avanzada.
Aunque los astrónomos han planteado varias respuestas a esa pregunta, una de las más populares sigue siendo la teoría del ‘Gran Filtro’, propuesta originalmente en 1996 por Robin Hanson, economista de la Universidad George Mason. Esta teoría dice que la razón por la que no hemos tenido contacto con otras civilizaciones es porque todas se extinguieron antes de tener la oportunidad de entrar en contacto con nosotros.
¿Qué provoca el Gran Filtro?
Desde entonces se han propuesto muchas posibles causas de este hipotético Gran Filtro que impide que la vida inteligente se convierta en interplanetaria e interestelar e incluso conduce a su desaparición.
La mayoría de las investigaciones al respecto se han hecho estudiando la única civilización conocida hasta ahora, la nuestra. Su razonamiento es que lo que parece más probable que nos mate a nosotros puede suponer una amenaza existencial también para la posible vida inteligente en otros planetas. Entre las posibles razones de la extinción están el cambio climático, la guerra nuclear, los impactos de asteroides, las explosiones de supernovas, las plagas o cualquier otro tipo de cataclismo.
Pero ahora, Michael Garrett, del Departamento de Física y Astronomía de la Universidad de Manchester, en el Reino Unido, acaba de publicar un estudio en la revista Acta Astronáutica en el que sugiere que ese Gran Filtro también puede ser una inteligencia artificial descontrolada.
«Se propone que dicho filtro surge antes de que estas civilizaciones puedan desarrollar una existencia estable y multiplanetaria, lo que sugiere que la longevidad típica de una civilización tecnológica es inferior a 200 años», sostiene Garrett.
El impacto de la superinteligencia artificial
Garrett asegura que la IA ha avanzado extraordinariamente en la última década, demostrando que los plazos de avance tecnológico de la IA son extremadamente cortos en comparación con los de la evolución darwiniana.
“Mientras que la IA puede necesitar el apoyo de civilizaciones biológicas para existir, es difícil imaginar que esta condición se aplique también a la superinteligencia artificial. Al alcanzar una singularidad tecnológica, los sistemas de superinteligencia artificial superarán rápidamente a la inteligencia biológica y evolucionarán a un ritmo que sobrepasará por completo los mecanismos de supervisión tradicionales, lo que provocará consecuencias imprevistas y no deseadas que probablemente no estén alineadas con los intereses o la ética biológicos”, escribe Garrett.
El investigador no es el único alarmado por la llegada de una inteligencia artificial general que no podamos controlar. En 2014, Stephen Hawking ya advirtió de que el desarrollo de una IA similar a esta podría suponer el fin de la humanidad. Esta IA puede evolucionar de forma independiente, argumentaba el malogrado físico, rediseñándose a sí misma a un ritmo cada vez mayor.
Esta preocupación también ha llevado a un grupo de más de mil expertos, entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, cofundador de Apple o el historiador Yuval Noah Harari, a pedir una moratoria en el desarrollo de la IA hasta que se pueda introducir una forma responsable de control y regulación. Europa ha sido pionera en lanzar la suya, pero habrá que ver cómo esta legislación mantiene el paso ante el avance exponencial que sigue la IA.
Cómo lo evitamos
Los análisis de Garrett se basan en la hipótesis de que esta superinteligencia y los humanos ocupan el mismo espacio. Pero si logramos vivir de manera estable en otros planetas, las perspectivas cambian. «Por ejemplo, una especie biológica multiplanetaria podría aprovechar experiencias independientes en diferentes planetas, diversificando sus estrategias de supervivencia y posiblemente evitando el fracaso de un solo punto al que se enfrenta una civilización planetaria», escribe Garrett.
Esta perspectiva coincide con la idea Musk, que busca en Marte un segundo hogar para los humanos. Pero Garrett va más allá y plantea que convertirnos en una especie multiplanetaria también podría ayudarnos a dominar la superinteligencia. El investigador imagina situaciones en las que podemos experimentar más a fondo con la IA si la mantenemos contenida en un asteroide aislado o en un planeta enano, cumpliendo nuestras órdenes sin acceso a los recursos necesarios para escapar de su prisión. «Permite entornos aislados en los que se pueden estudiar los efectos de la IA avanzada sin riesgo inmediato de aniquilación global», escribe Garrett.
Sin embargo, la disparidad ante el vertiginoso avance tecnológico de la IA y lo verdes que están nuestras capacidades para conquistar otros planetas y transformarlos para hacerlos habitables, convierten en esa solución en practicante imposible. El investigador cree que existe la posibilidad real de que la IA alcance el nivel de superinteligencia dentro de unas décadas. Otras voces aseguran que esto pasará mucho antes. El investigador Ben Goertzel, creador del término Inteligencia artificial general, asegura que la singularidad —el momento en que la inteligencia artificial supera el control de los humanos— podría llegar en 2031. Mientras que Elon Musk, que también fue cofundador de OpenIA, aseguró en una reciente conferencia en París que la inteligencia artificial general llegará el año que viene.
Otra solución que plantea Garrett es legislar y gobernar la IA. El problema es que una tecnología, capaz de hacerse con el control de naciones enteras, sería muy codiciada tanto por grupos terroristas como por los países que buscan tener ventaja ante sus enemigos. Además, no importa lo rápido que desarrollemos las nuevas normas, la superinteligencia puede cambiar aún más rápido.
«Aunque las partes interesadas de la industria, los responsables políticos, los expertos individuales y sus gobiernos ya advierten que la regulación es necesaria, establecer un marco regulador que pueda ser globalmente aceptable va a ser todo un reto», escribe Garrett. «Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una gran amenaza para el curso futuro no solo de nuestra civilización tecnológica, sino de todas las civilizaciones tecnológicas», escribe Garrett.
/psg