Las tecnologías basadas en Inteligencia Artificial (IA) han supuesto una revolución con enormes beneficios, como el desarrollo de fármacos personalizados, la creación de máquinas autónomas capaces de realizar tareas mejor que los humanos, diagnósticos médicos más precisos y el aprendizaje de complejas habilidades como la cooperación y la negociación. Sin embargo, junto a estos avances, también surgen riesgos considerables que los expertos advierten no deben ser ignorados.

Seth Lazar, filósofo australiano y director del Laboratorio de Inteligencia de Máquinas y Teoría Normativa de la Universidad Nacional de Australia, y Alondra Nelson, presidenta del Consejo de Investigación de Ciencias Sociales de la Universidad de Columbia, han planteado la necesidad de una reflexión profunda sobre cómo gestionar el futuro compartido con la Inteligencia Artificial. En un artículo de opinión publicado en la revista Science, que dedica un número especial a los desafíos de la IA, los expertos señalan que, a pesar de los esfuerzos gubernamentales por abordar este tema, aún no se está llevando a cabo un enfoque integral que combine tanto los aspectos técnicos como sociales.

El debate sobre la seguridad de la IA

El artículo plantea preguntas fundamentales sobre lo que significa hacer que un sistema de IA sea «seguro». ¿Deberíamos preocuparnos únicamente por evitar la destrucción de la humanidad por parte de la IA avanzada, o también por asegurar que los sistemas de IA reflejen los valores de los diseñadores y no se utilicen para fines destructivos? Lazar y Nelson advierten que las preguntas actuales sobre la seguridad de la IA son insuficientes. Si bien prevenir una amenaza letal de la IA es crucial, los investigadores apuntan que incluso una IA con poder destructivo controlado seguiría siendo una de las tecnologías más poderosas jamás creadas, y debe ser regulada según un conjunto mucho más rico de valores e intenciones.

Además, aunque no todas las IAs serán tan peligrosas, su potencial para ser utilizadas por individuos con intereses propios es considerable. La investigación sociotécnica ha mostrado que, si no se controlan adecuadamente, las tecnologías avanzadas pueden ser explotadas para obtener poder y ganancias a costa de los derechos humanos, la justicia social y la democracia. Por lo tanto, los expertos concluyen que para que la IA avanzada sea verdaderamente segura, es necesario comprender y mitigar los riesgos que enfrenta la humanidad en esos aspectos también.

Un debate público urgente

Lazar y Nelson subrayan que no debe ser un pequeño grupo de expertos, y mucho menos solo tecnólogos, quienes decidan de manera unilateral qué riesgos son relevantes y qué valores debe tener una IA segura. En su lugar, debe haber un debate público amplio y urgente sobre estas cuestiones. La pregunta central es si debemos seguir adelante con la creación de sistemas de IA «parecidos a Dios», con el poder para cambiar el curso de la humanidad.

El sesgo en la creación de la IA

Otro punto que los expertos abordan es la necesidad de que la seguridad de la IA no esté influenciada únicamente por la ideología de quienes la desarrollan, un grupo que históricamente ha sido desproporcionadamente blanco, masculino y privilegiado. Los autores advierten que no debemos cometer el error de dejar que solo una pequeña élite de tecnólogos decida sobre el futuro de la IA sin considerar una visión más socialmente inclusiva.

El artículo concluye que las soluciones a los riesgos de la Inteligencia Artificial no deben centrarse exclusivamente en los aspectos técnicos. Las soluciones que no integren una perspectiva social más amplia solo agravarán los peligros que ya enfrentamos con esta tecnología emergente.

*Esta noticia fue redactada utilizando los adelantos técnicos propios de este sitio web. Se acepta cualquier reproducción en otro medio, ojalá citando la fuente: www.eldiariodesantiago.cl