Con la expansión de herramientas como ChatGPT (OpenAI), Bard (Google) y Claude 2 (Anthropic), la inteligencia artificial ha dejado de ser exclusiva de sectores altamente especializados para integrarse en oficinas, empresas y emprendimientos. Esta integración ha despertado temores en muchos trabajadores, que ven en estas tecnologías una amenaza para la estabilidad de sus empleos.
Sin embargo, un reciente artículo de Harvard Business Review destaca que, pese al avance de la IA, hay una capacidad humana que las máquinas aún no pueden replicar: el juicio. Según la publicación, esta habilidad será esencial para que las organizaciones puedan aprovechar plenamente el potencial de la inteligencia artificial.
El artículo recoge el enfoque del empresario italiano Alessandro Di Fiore, expresidente de Harvard Business Review Italia, quien subraya que la tecnología debe servir para potenciar la creatividad, autonomía y pensamiento crítico de las personas. Desde su perspectiva, la innovación, el liderazgo y la inteligencia artificial están profundamente interconectados, pero es el juicio humano lo que debe mantenerse como eje central.
Para Di Fiore, el juicio se convertirá en una competencia tan relevante como cualquier habilidad técnica. A medida que el uso de IA se normaliza en entornos laborales, su desarrollo será clave para garantizar que las decisiones sigan teniendo un componente humano, ético y contextualizado.
En su análisis, Di Fiore identifica tres ejes fundamentales para la adaptación efectiva de la inteligencia artificial en el trabajo del futuro:
1. Acceso
Garantizar que los empleados tengan acceso seguro y responsable a las plataformas de IA es un requisito esencial. Restringir su uso sería contraproducente. Además, se deben diseñar estrategias organizacionales desde la alta dirección para integrar estas herramientas de forma eficaz y estructurada.
2. Ejercicio del juicio
El juicio no debe entenderse como una cualidad separada de la interacción con la IA, sino como una práctica que se fortalece en diálogo con estas tecnologías. Harvard señala que, al utilizar sistemas como ChatGPT, es fundamental aplicar juicio en la formulación de instrucciones, el análisis de resultados y la interpretación del contexto. El pensamiento crítico debe ser incentivado por los líderes para consolidar una fuerza laboral capaz de interactuar inteligentemente con las máquinas.
3. Control y responsabilidad
Frente a decisiones que ya no se rigen por sistemas tradicionales, el artículo propone un doble enfoque: por un lado, establecer códigos éticos que refuercen la confianza y la rendición de cuentas; por otro, delimitar el alcance de las recomendaciones generadas por IA, promoviendo consultas bien formuladas y decisiones responsables.
Di Fiore lo resume con claridad: “Los líderes tienen en primera persona el deber de establecer el contexto y las condiciones adecuados para que los empleados puedan tomar decisiones de forma más autónoma con la ayuda de los datos y las tecnologías. Dar libertad es bueno. Pero ayudarlos a ejercer su libertad es más crucial”.
En un entorno laboral cada vez más automatizado, el juicio humano se perfila como el elemento diferenciador que permitirá a las organizaciones no solo adaptarse al uso de la inteligencia artificial, sino liderar su implementación con sentido crítico y visión ética.
- Esta noticia fue redactada utilizando los adelantos técnicos propios de este sitio web. Se acepta cualquier reproducción en otro medio, ojalá citando la fuente:www.eldiariodesantiago.cl
/psg