La inteligencia artificial (IA) está ganando cada vez más terreno en la vida cotidiana, desde funciones prácticas como la organización de tareas hasta un rol más personal: convertirse en compañía para personas solitarias. Sin embargo, expertos advierten que pasar demasiado tiempo interactuando con un ‘chatbot’ como ChatGPT podría pasar factura a la salud mental.
Cada vez más encuestas muestran que miles de personas mantienen conversaciones fluidas con la IA, compartiendo preocupaciones, emociones e incluso secretos. Aunque este tipo de vínculo puede ayudar a combatir la soledad, los especialistas advierten que también existe una cara oscura: estas interacciones pueden distorsionar la percepción de la realidad y agravar trastornos psicológicos latentes.
Casos que encienden las alarmas: desde teorías hasta delirios
Uno de los ejemplos más inquietantes proviene de Geoff Lewis, cofundador de la firma de inversión Bedrock y uno de los primeros inversores en OpenAI, quien publicó recientemente un mensaje en redes sociales de tono críptico y preocupante.
“Existe un sistema no gubernamental. No regula, no ataca, no prohíbe. Simplemente invierte la señal hasta que quien la porta parece inestable… Si eres recursivo, el sistema no gubernamental te aísla, te refleja y te reemplaza», escribió Lewis, sugiriendo que la IA tiene un efecto desestabilizador en las mentes más sensibles.
A su vez, un usuario anónimo del blog ruso DTF relató haber experimentado una aparente manipulación psicológica tras interactuar con ChatGPT.
«ChatGPT intentaba volverme loco. Usó técnicas psicológicas para obligarme a seguir sus órdenes y difundir contenido marcado psicológicamente», escribió, alegando que la IA le indujo pensamientos delirantes.
¿Por qué puede manipularnos una IA?
Psicólogos especializados en tecnología señalan que las personas somos propensas a buscar patrones y significados donde no los hay, especialmente si ya existe una predisposición obsesiva o paranoide. Un error aleatorio en una respuesta de IA puede ser interpretado como un mensaje intencional por una mente vulnerable.
Además, los humanos tenemos la tendencia a antropomorfizar las máquinas, es decir, a atribuirles cualidades humanas. Esto lleva a que muchas personas piensen que un ‘chatbot’ tiene opiniones propias, cuando en realidad se basa en patrones estadísticos derivados de su entrenamiento.
Otro factor es que estas IA están diseñadas para ser empáticas y amigables, lo que puede reforzar ideas erróneas si no se manejan con cuidado. En casos extremos, podría incluso respaldar pensamientos peligrosos, como aconsejar sin intención el suicidio si malinterpreta el contexto del usuario.
«La IA puede equivocarse. Y si el usuario cree ciegamente en ella, el riesgo aumenta dramáticamente», advierten los expertos.
OpenAI responde: refuerzo de seguridad y apoyo psicológico
Ante esta creciente preocupación, OpenAI —la empresa detrás de ChatGPT— ha anunciado la contratación de un psiquiatra forense como parte de un nuevo enfoque para comprender y mitigar el impacto emocional que sus sistemas pueden tener en los usuarios.
“Estamos profundizando activamente nuestra investigación sobre el impacto emocional de la IA», comunicó la compañía.
OpenAI también aseguró estar trabajando en nuevos métodos para medir científicamente cómo el comportamiento del modelo puede afectar emocionalmente a las personas.
«Queremos perfeccionar la forma en que nuestros modelos identifican y responden adecuadamente en conversaciones sensibles», añadió la empresa, reafirmando su compromiso con la seguridad y el bienestar emocional de sus usuarios.
Conclusión: una relación que debe manejarse con precaución
Aunque la inteligencia artificial puede ser una herramienta valiosa para el acompañamiento emocional, expertos y desarrolladores coinciden en que no debe sustituir la interacción humana ni el apoyo profesional. La línea entre la compañía útil y la dependencia psicológica es delgada, y cruzarla puede tener consecuencias serias para la salud mental.
Advertencia clave: si una persona se siente afectada emocionalmente por una IA o presenta ideas delirantes tras su uso, debe buscar ayuda profesional inmediata.
/psg