Eliezer Yudkowsky, reconocido experto en inteligencia artificial y cofundador del Instituto de Investigación de Inteligencia Artificial (Machine Intelligence Research Institute, MIRI), vuelve a encender las alarmas sobre el peligro inminente que, según él, representa el avance acelerado en tecnologías de inteligencia artificial (IA). En su más reciente libro, el investigador de 46 años advierte con crudeza: “Si alguien construye una superinteligencia artificial, la humanidad entera está condenada”.

¿Qué es la superinteligencia artificial?

La llamada superinteligencia artificial sería una forma de IA con capacidades que superan ampliamente las de los seres humanos en prácticamente todos los ámbitos: lógica, estrategia, creatividad y toma de decisiones. Según Yudkowsky, esta tecnología estaría siendo desarrollada por empresas y gobiernos de todo el mundo, y su potencial destructivo es mucho mayor de lo que el público general imagina.

“Si alguna empresa o grupo, en cualquier parte del planeta, construye una superinteligencia artificial usando algo remotamente parecido a las técnicas actuales (…) todos, en todas partes en la Tierra, moriremos”, escribió el experto.

Una advertencia que no es nueva, pero sí más urgente

Yudkowsky ha sido por años una de las voces más críticas del desarrollo de IA sin regulaciones estrictas. Aunque muchos lo catalogan de alarmista o catastrófico, sus ideas han influenciado a importantes figuras del sector, como Elon Musk y Sam Altman, CEO de OpenAI.

En entrevistas con The New York Times, Yudkowsky ha reiterado que su mayor objetivo no es construir inteligencia artificial, sino evitar la extinción humana. Afirma que, aunque la IA puede tener aplicaciones positivas —como en la cura de enfermedades o el desarrollo de nuevos fármacos—, estas no justifican los riesgos catastróficos que conlleva la creación de una superinteligencia descontrolada.

“La IA no se vuelve más amigable con más inteligencia”

Uno de los puntos clave de su pensamiento es que la inteligencia y la benevolencia no están relacionadas. A diferencia de lo que muchos podrían pensar, una IA más avanzada no será necesariamente más comprensiva o ética. Para Yudkowsky, es un error suponer que una inteligencia artificial se volverá más “humana” conforme evoluciona.

“De joven, quise crear la primera IA amigable del mundo, pero comprendí que no podía controlarse. La inteligencia no garantiza bondad”, ha declarado.

Críticas a las grandes compañías tecnológicas

Cuando se le preguntó qué empresas están tomando un enfoque responsable en el desarrollo de la IA, Yudkowsky fue tajante: “La gerencia de OpenAI es notablemente peor que la del resto”, afirmó.

Incluso propuso medidas extremas para frenar el desarrollo de IA avanzada:
“Todos los laboratorios que están construyendo estas tecnologías deberían ser clausurados. Todos deberían recibir el mismo trato legal”, sentenció.

¿Vale la pena el riesgo?

A pesar de reconocer que la IA puede aportar avances valiosos en múltiples campos, Yudkowsky insiste en que los posibles beneficios no compensan los riesgos existenciales que plantea. Cree que la humanidad debería abandonar por completo la idea de construir una superinteligencia artificial, antes de que sea demasiado tarde.

“Mi esperanza es que el mundo abandone la IA superinteligente… y que no muramos en un futuro próximo”, concluyó.

Eliezer Yudkowsky, una de las voces más controversiales en el mundo de la inteligencia artificial, continúa alertando sobre un escenario que él ve como inevitable si no se actúa con urgencia. Sus advertencias, aunque polémicas, están siendo cada vez más tomadas en cuenta en un momento donde el avance tecnológico supera los límites imaginados hace solo una década.

/psg