Un nuevo estudio de la firma de ciberseguridad Indusface revela un dato que marca tendencia: más de la mitad de los adultos en Estados Unidos (52 %) utiliza habitualmente modelos de lenguaje grande (LLM), como ChatGPT, y un tercio de ellos reconoce que ya es “demasiado dependiente” de estas herramientas para obtener respuestas.
Pero la dependencia no es el único problema. El informe alerta sobre un fenómeno aún más preocupante: el 38 % de los empleados ha compartido información laboral confidencial con sistemas de inteligencia artificial generativa (IA Gen) sin contar con la autorización de sus empleadores.
Privacidad en jaque: ¿qué están compartiendo los usuarios con la IA?
La investigación muestra que muchos usuarios están traspasando límites peligrosos al utilizar IA en su día a día laboral. Entre los principales datos que se comparten de forma inapropiada se encuentran:
1. Archivos de trabajo y documentos internos
El uso de herramientas como ChatGPT se ha vuelto común incluso en las empresas más grandes. Más del 80 % de los empleados de compañías del índice Fortune 500 utiliza IA para tareas como redacción de textos o mejora de contenido corporativo.
Sin embargo, el estudio revela que hasta un 11 % de los datos ingresados a estas plataformas son estrictamente confidenciales, incluyendo:
-
Estrategias comerciales
-
Proyectos en desarrollo
-
Documentos internos no divulgados
“Los modelos de IA pueden retener esta información de forma indefinida y, en algunos casos, podrían reutilizarla para responder a otras consultas de usuarios”, advierte Indusface.
La recomendación es clara: eliminar o anonimizar toda información sensible antes de utilizar una herramienta de IA.
2. Contraseñas y credenciales de acceso
A pesar de las constantes advertencias, un 24 % de los usuarios almacena sus contraseñas en notas dentro de sus dispositivos y un 18 % las guarda en navegadores. Lo más alarmante: algunas de estas credenciales terminan siendo copiadas en herramientas como ChatGPT.
“Los LLM no están diseñados para ofrecer privacidad absoluta, sino para aprender de los datos que se les proporcionan”, señala el informe.
Esto abre la puerta a filtraciones de seguridad, acceso no autorizado a sistemas internos y, en el peor de los casos, ataques cibernéticos.
3. Datos personales e identidad digital
Aunque parezcan inofensivos, datos como:
-
Nombre completo
-
Dirección personal
-
Imágenes de rostro o voz
…pueden ser acumulados y utilizados para suplantación de identidad, fraudes o incluso la creación de deepfakes. Estos últimos son videos manipulados digitalmente que simulan a una persona diciendo o haciendo algo que nunca ocurrió, con consecuencias legales o reputacionales graves.
4. Información financiera
Aunque la IA puede ayudar a explicar conceptos económicos o analizar reportes, no debe usarse para ingresar información financiera sensible ni tomar decisiones empresariales.
“Los LLM no tienen precisión matemática ni comprensión contable real, lo que puede llevar a errores críticos en el análisis de datos”, advierte Indusface.
Además, introducir información estratégica o de balances podría exponer a las empresas a riesgos financieros o filtraciones de datos confidenciales.
5. Código fuente y propiedad intelectual
Los desarrolladores también están en la mira del informe. Muchos usan IA para programar o resolver problemas técnicos, pero el riesgo aparece cuando se comparte código fuente confidencial.
“Fragmentos de código ingresados a plataformas de IA podrían ser utilizados para entrenar futuros modelos, o incluso filtrarse sin querer a otros usuarios”, señala el reporte.
Esto implica un peligro directo a la propiedad intelectual de las empresas tecnológicas, ya que esos datos podrían acabar siendo accesibles para la competencia o para actores malintencionados.
Conclusión: la IA no es un lugar seguro para todo
El informe de Indusface lanza una advertencia clara: los modelos de lenguaje no deben entenderse como entornos seguros para almacenar o procesar información confidencial.
El uso de IA en el entorno laboral puede traer beneficios de productividad, pero también abre una puerta a riesgos serios si no se establecen protocolos claros y conciencia en los usuarios.
/psg