Hasta ahora sólo era un rumor, pero varios empleados de OpenAI han confirmado a Reuters y al medio The Information el envío de una carta al consejo de administración alertando sobre el nuevo desarrollo de una inteligencia artificial de tal poder que, según los científicos de OpenAI que firmaron el documento, es un «peligro existencial para la humanidad».

La carta habla de la existencia de una inteligencia artificial general (AGI) o algo que se acerca mucho a la idea de una IA capaz de razonar y comprender el mundo como un ser humano, un desarrollo que, de ser cierto, marcaría una nueva era en la historia de la civilización.

Un peligro ocultado al consejo de administración

Reuters indica que la seriedad de este desarrollo —que el CEO de OpenAI Sam Altman podría haber sido ocultado al consejo— podría haber sido el detonante final del despido fulminante de Altman, que acaba de volver triunfante a la empresa.

Aunque la carta no se ha hecho pública todavía ni Reuters ha podido comprobar su contenido ni hablar con sus autores, varias fuentes han dado fe a la agencia de noticias sobre su existencia y la gravedad de las acusaciones.

Además, el motivo de esta seria llamada de atención explicaría el motivo por el que Altman ha decidido someter su gestión a una investigación interna. Una gestión que, por otra parte, ya estaba siendo cuestionada por un consejo que había advertido sobre la introducción ‘demasiado acelerada’ de nuevas versiones de GPT sin tener en cuenta las posibles ramificaciones de su impacto en la sociedad. La carta pudo haber sido la proverbial gota que colmó el vaso.

El proyecto Q*

Según la carta, el nombre interno del proyecto que podría haber alcanzado la AGI es Q* (pronunciado Q-Star en inglés, Q-estrella en español). Siempre según las fuentes de Reuters y The Information, Q* representa como mínimo un avance significativo en la búsqueda de la inteligencia artificial general (AGI). A diferencia de las formas de inteligencia artificial actuales que utilizan modelos predictivos para componer textos e imágenes pero no pueden comprender el mundo ni conceptos abstractos como los humanos, este nuevo algoritmo sería capaz de razonar a un nivel comparable al de los humanos.

Una de las pruebas de la capacidad de Q* parece ser su habilidad para resolver problemas matemáticos razonando como una persona por primera vez. Aunque actualmente las fuentes de Reuters indican que opera a un nivel similar al de estudiantes de primaria, Q* ha sorprendido a los investigadores porque puede ser un paso clave que pondría la IA al nivel de complejidad del pensamiento humano.

Este avance es tan importante que ha disparado las alarmas entre los propios científicos de OpenAI, motivando el envío de una carta que expresa su inquietud seria sobre la seguridad y las implicaciones éticas de su desarrollo. Una IA con capacidades tan avanzadas podría actuar de forma independiente, con consecuencias impredecibles y potencialmente peligrosas para la humanidad, especialmente si no se comprenden completamente su proceso de toma de decisiones y si no se implementan las salvaguardas adecuadas.

Si la inteligencia artificial actual ya está teniendo un impacto extremadamente negativo en la sociedad, las consecuencias éticas y de seguridad del desarrollo y puesta en marcha de una AGI —o algo cercano a la AGI— pueden llegar a ser catastróficas si no se toman antes medidas serias para impedirlo.

/psg