El desarrollo de la inteligencia artificial (IA) parece imparable y en un futuro no muy lejano podremos encontrar un ‘cerebro digital’ que supere en capacidad al cerebro humano. Esta es la siniestra profecía de un experto en esta materia que ha despertado las alarmas.
Kevin Baragona, fundador de DeepAI, advierte de que los sistemas de inteligencia sobrehumanos en rápido crecimiento, marcarán el comienzo de un nuevo tipo de futuro, y es uno que «debería aterrorizarnos».
Tal y como recoge The Sun, este experto se ha unido al creciente coro de agoreros de Silicon Valley que están tratando de exponer las amenazas tanto inmediatas como existenciales que el software representa para nuestro futuro.
Kevin Baragona comparó el rápido desarrollo de la IA generativa avanzada (herramientas de aprendizaje automático interconectadas que se pueden usar para producir arte, música e incluso ideas) con el «crecimiento de un cerebro digital».
Y al igual que todavía no entendemos completamente la mente humana, podemos llegar a un punto en el que ya no entendamos la IA. «Si creamos ordenadores más inteligentes que los humanos, entonces, ¿qué queda para los humanos?», dice Baragona.
Y advirtió que se están dibujando las líneas de batalla, con dos campos en guerra dentro de la gran industria tecnológica, por un lado los del ‘Equipo Aceleración’ y por otro, ‘Equipo Regulación’.
Baragona advierte también de que el rápido desarrollo de la IA, que se está popularizando con herramientas como el altamente restringido ChatGPT, es comparable al peligro que representan las armas nucleares: «No va a haber una batalla entre naciones, sino una batalla entre la IA y la humanidad».
| No va a haber una batalla entre naciones, sino una batalla entre la IA y la humanidad
Los sistemas de IA generativa superan todas las estimaciones en cuanto a la rapidez con la que se entrenan para aprovechar aún más datos y utilizar algoritmos cada vez más sofisticados.
El principal experto en IA, Eliezer Yudkowsky, llama a este fenómeno «caída hacia la catástrofe», donde «el resultado más probable es que la IA no haga lo que queremos y no se preocupe por nosotros ni por la vida consciente en general».
«Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», escribieron en una nueva carta firmada por 350 de los principales especialistas en IA, incluidos los ejecutivos de OpenAI y DeepMind.
/psg