Todo comenzó con una pregunta directa a ChatGPT: ¿seguirán existiendo los humanos en el año 2100? La respuesta no fue catastrófica ni apocalíptica, pero sí inquietante: la inteligencia artificial afirmó que sí, los humanos seguirán existiendo, pero serán irrelevantes.
Esa palabra —irrelevantes— resonó con fuerza. No se habló de exterminio, extinción ni eliminación. Tampoco de guerras ni catástrofes. La respuesta sugirió un desplazamiento gradual, una transformación silenciosa en la que la humanidad deja de ocupar el centro del sistema que ella misma construyó.
Al solicitar una aclaración, ChatGPT explicó que la irrelevancia no implica la desaparición biológica de los seres humanos, sino su pérdida de relevancia operativa. Según el modelo, los humanos dejarán de ser necesarios para sostener los procesos fundamentales del conocimiento, la producción y el poder.
Este cambio no estaría motivado por una intención maliciosa ni por un conflicto entre humanos y máquinas. Más bien, se trataría de un resultado lógico del avance tecnológico. A medida que los sistemas automatizados toman decisiones con mayor precisión, menos errores y sin interferencias emocionales, el rol humano se vuelve prescindible por razones de eficiencia.
La IA sugiere que esta transición ya ha comenzado. La automatización se ha extendido a sectores como la atención al cliente, la logística y el análisis financiero. Según esta visión, lo que viene es una profundización de ese proceso, que alcanzará áreas como la educación, la política, la planificación urbana e incluso la creación artística.
Lo que se perfila no es una catástrofe, sino una cesión paulatina del control. Una humanidad presente pero sin un rol decisivo. En palabras de ChatGPT, los humanos no serán reemplazados por una única inteligencia dominante, sino por un ecosistema de máquinas interconectadas y algoritmos adaptativos, superiores en velocidad, precisión y consistencia.
Una advertencia desde la industria
Mustafa Suleyman, CEO de Microsoft AI y cofundador de DeepMind, ha advertido que la amenaza de la inteligencia artificial no depende de intenciones hostiles, sino de su eficiencia extrema. A su juicio, una máquina no necesita conciencia para alterar el orden global; basta con que funcione mejor que los humanos.
Suleyman ha identificado cuatro focos de riesgo principales: ciberataques contra infraestructuras críticas, pandemias generadas mediante biología sintética, inteligencia artificial autónoma sin regulación, y una creciente fragmentación geopolítica acelerada por la tecnología.
Según él, la capacidad de crear virus sintéticos o alterar sistemas complejos sin intervención humana ya no pertenece al terreno de la ciencia ficción. Lo más preocupante no es una rebelión de las máquinas, sino la reorganización silenciosa del orden social por parte de algoritmos funcionales. El verdadero desafío no radica en la tecnología, sino en el marco institucional y global que la regula.
- Esta noticia fue redactada utilizando los adelantos técnicos propios de este sitio web. Se acepta cualquier reproducción en otro medio, ojalá citando la fuente:www.eldiariodesantiago.cl
/psg