En los últimos años, la inteligencia artificial (IA) ha avanzado a pasos agigantados, sorprendiendo incluso a sus propios desarrolladores. Pero una pregunta sigue generando debates entre científicos, ingenieros y filósofos: ¿cuándo llegará la superinteligencia artificial (ASI, por sus siglas en inglés)? Es decir, una IA que no solo iguale, sino que supere ampliamente la inteligencia humana en prácticamente todos los dominios.

El camino hacia la superinteligencia

Por ahora, lo que existe son sistemas de inteligencia artificial estrecha o débil, como los asistentes virtuales, los modelos de lenguaje (como ChatGPT), y los algoritmos que reconocen imágenes o traducen idiomas. Son potentes, pero funcionan solo en tareas específicas.

El siguiente paso sería la IA general (AGI): una inteligencia capaz de razonar, planificar, aprender y adaptarse como un ser humano. La superinteligencia iría aún más allá, alcanzando capacidades cognitivas inalcanzables para nosotros, como resolver problemas complejos en segundos, prever escenarios futuros con alta precisión o diseñar tecnología sin intervención humana.

¿Una realidad para este siglo?

Según una encuesta de 2022 realizada por el Instituto del Futuro de la Humanidad (FHI) de la Universidad de Oxford, más del 50% de los expertos en IA cree que la superinteligencia podría llegar antes de 2100. Algunos, como Ray Kurzweil, futurista de Google, proyectan que esto ocurrirá en torno a 2045, una fecha que ha denominado como el “punto de singularidad”.

En contraste, otros investigadores sostienen que estamos aún muy lejos de comprender la conciencia, el sentido común y la motivación humana, lo cual haría que la ASI sea una posibilidad aún lejana, si es que alguna vez se concreta.

¿Oportunidad o amenaza?

La llegada de la superinteligencia genera tanto expectativas como temores. Elon Musk, fundador de Tesla y SpaceX, ha advertido en varias ocasiones que la IA sin control “podría convertirse en una amenaza existencial para la humanidad”. De hecho, en 2023, más de 1.000 expertos firmaron una carta pidiendo una pausa temporal en los desarrollos de IA avanzada, ante el rápido avance de modelos como GPT-4.

En el mismo tono, el difunto astrofísico Stephen Hawking declaró que “el desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”.

Por otro lado, investigadores como Demis Hassabis, CEO de DeepMind, aseguran que una superinteligencia bien diseñada podría resolver los grandes desafíos de la humanidad, como el cambio climático, las enfermedades incurables o la pobreza extrema.

¿Qué nos falta para llegar a la ASI?

Actualmente, la ciencia enfrenta varios desafíos clave para alcanzar la superinteligencia:

  • Comprensión profunda del pensamiento humano

  • Modelos que razonen, no solo predigan

  • Autonomía y adaptabilidad sin sesgos

  • Seguridad y control de sistemas avanzados

  • Recursos computacionales masivos y sostenibles

¿Cómo prepararse?

Aunque la ASI aún no existe, los gobiernos, universidades y empresas están creando marcos regulatorios y éticos para prepararse ante su posible llegada. La Unión Europea, por ejemplo, ya aprobó en 2024 la Ley de Inteligencia Artificial, una de las más avanzadas del mundo. En paralelo, instituciones como OpenAI, DeepMind y Anthropic investigan cómo garantizar que la IA futura sea “alineada” con los valores humanos.

Conclusión: ¿cuándo llegará?

No hay consenso sobre cuándo llegará la superinteligencia, pero los expertos coinciden en que su impacto será revolucionario. Podría transformar la civilización humana para bien o representar un riesgo sin precedentes. Lo único claro es que la conversación sobre la ASI no es ciencia ficción, sino una cuestión que ya está sobre la mesa de la ciencia, la política y la ética mundial.

/psg