Según un estudio llevado a cabo por investigadores del Instituto Max Planck para el Desarrollo Humano y publicado en la revista ‘ Journal of Artificial Intelligence Research’, la humanidad será totalmente incapaz de controlar una superinteligencia artificial de alto nivel. El problema es que para controlar esa hipotética inteligencia, sería necesario disponer de una simulación. Pero si no podemos comprenderla será imposible crear esa simulación.

Para los autores, reglas del tipo ‘no causar daño a los humanos’ serían del todo imposibles de establecer si no entendemos la clase de escenarios que se le ocurrirán a la inteligencia artificial (IA). De modo que una vez que un sistema informático empiece a funcionar a un nivel superior y fuera del alcance de nuestros programadores, ya no seremos capaces de establecer límites.

«Una superinteligencia plantea un problema fundamentalmente diferente a los que se estudian típicamente bajo el lema de la ‘ética de los robots’,- escriben los investigadores-. Esto se debe a que una superinteligencia tiene múltiples facetas y, por lo tanto, es potencialmente capaz de movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables».

El problema de la detención

Parte del razonamiento del equipo se basa en el ‘problema de la detención’ presentado por Alan Turing en 1936. El problema se centra en saber si un programa de computadora llegará o no a una conclusión y respuesta (y por lo tanto se detendrá), o simplemente se repetirá eternamente tratando de encontrar una.

Tal y como Turing demostró matemáticamente, y a pesar de que para algunos programas sí podemos saberlo, es imposible encontrar la forma de saber eso para cada programa potencial que alguna vez podría escribirse. Lo cual nos lleva de vuelta a la IA super inteligente, que podría contener todos los programas informáticos posibles en su memoria de forma simultánea.

Por lo tanto, cualquier programa escrito, por ejemplo, para evitar que la IA dañe a los humanos y destruya el mundo, puede llegar a una conclusión (y detenerse) o no: es matemáticamente imposible para nosotros estar absolutamente seguros, lo que significa que no podemos controlarlo. «En efecto -afirma Iyad Rahwan, coautor del estudio- esto inutiliza el algoritmo de contención».

La única alternativa a decirle a la IA que no destruya el mundo, algo que ningún algoritmo puede estar absolutamente seguro de poder hacer, sería limitar las capacidades de la superinteligencia. Por ejemplo, desconectándola de algunas partes de Internet o de ciertas redes críticas.

Pero el estudio también rechaza esta idea, ya que limitaría el alcance de la inteligencia artificial. Si no la vamos a usar para resolver problemas más allá del alcance de los humanos, ¿para qué crearla?

Por otra parte, si seguimos adelante con la Inteligencia Artificial, es posible que ni siquiera sepamos en qué momento esta escapa de nuestro control, tal es su incomprensibilidad. Lo que significa que debemos empezar a plantearnos seriamente la dirección en la que avanzamos.

«Una máquina superinteligente que controla el mundo suena a ciencia ficción -dice Manuel Cebrian, otro de los formantes del estudio-. Pero ya hay máquinas que realizan determinadas tareas importantes de forma independiente sin que los programadores comprendan por completo cómo las aprendieron». La pregunta, por lo tanto, es la siguiente: ¿Podría esto llegar a ser incontrolable o incluso peligroso para la humanidad? Los autores parecen estar convencidos de que sí.

/psg