El famoso científico de la computación Geoffrey Hinton, apodado el “Padrino de la IA”, advirtió en una reciente entrevista en CBS “60 Minutes” que la inteligencia artificial podría escapar del control humano reescribiendo su propio código para automejorarse. Según Hinton, los avances acelerados en la tecnología de la IA podrían permitirles superar a los humanos en tan solo cinco años.

Hinton, ganador del Premio Turing 2018 por su innovadora labor en la IA y el aprendizaje profundo, renunció a su cargo de vicepresidente en Google en mayo para hablar libremente sobre los riesgos que plantea la IA. Aunque Hinton reconoce el beneficio significativo de la IA en industrias como la atención médica, también señaló el aumento de la desinformación favorecida por la IA, las imágenes y videos falsos en línea.

El científico instó a la necesidad de más investigación para comprender la IA, la implementación de regulaciones gubernamentales y la prohibición mundial de los robots militares potenciados por IA.

Además, Hinton y otros expertos en IA admiten que aún no comprenden completamente cómo funciona y evoluciona esta tecnología. Este problema fue mencionado por el CEO de Google, Sundar Pichai, como la “caja negra” de la IA. Según Hinton, los científicos desarrollan algoritmos para que los sistemas de IA extraigan información de conjuntos de datos. Estos algoritmos de aprendizaje interactúan con los datos y producen redes neuronales complejas, pero la forma exacta en cómo estos sistemas realizan sus tareas sigue siendo un enigma.

A pesar de estas advertencias, otros especialistas en IA como Yann LeCun, también galardonado con el Premio Turing y considerado otro “padrino de la IA”, minimizó las preocupaciones sobre la pérdida de control humano. LeCun consideró exageradas las advertencias acerca de que la IA podría reemplazar a la humanidad, argumentando que los humanos siempre podrían controlar cualquier tecnología que se vuelva demasiado peligrosa.

Durante una sesión en Capitol Hill el mes pasado, legisladores y ejecutivos tecnológicos como Pichai, Elon Musk, Sam Altman de OpenAI y Mark Zuckerberg de Meta discutieron ideas similares al hablar de la necesidad de balancear los reglamentos con políticas gubernamentales que favorezcan la innovación. Hinton subrayó la urgencia de implementar salvaguardas para la IA, ya sea por parte de las compañías tecnológicas o impuestas por el gobierno federal de los Estados Unidos.

Al reflexionar sobre el futuro de la IA en CBS “60 Minutes”, Hinton instó a los líderes tecnológicos y gubernamentales a tomar decisiones críticas acerca de si desarrollar aún más estas tecnologías y cómo protegerse en caso de hacerlo. Hinton concluyó que “estamos probablemente en una especie de punto de inflexión” y enfatizó la “enorme incertidumbre” sobre lo que sucederá a continuación.

Lo más destacado de la entrevista con “60 Minutes”

La entrevista destacó tanto el potencial transformador de la IA como las preocupaciones éticas y de seguridad que plantea su rápido desarrollo.

  • Inteligencia superhumana: Geoffrey Hinton, pionero en el campo de la inteligencia artificial (IA), sugiere que estamos entrando en una era donde las máquinas podrían ser más inteligentes que los seres humanos.
  • Conciencia y autoconciencia: Hinton cree que aunque las IA actualmente carecen de autoconciencia, es probable que la desarrollen en el futuro.
    Origen accidental: revela que su trabajo en IA nació de un fracaso en la década de 1970 cuando intentaba simular una red neuronal para estudiar el cerebro humano.
  • Premio Turing: en 2019, Hinton y sus colaboradores Yann LeCun y Yoshua Bengio recibieron el Premio Turing, considerado el Nobel de la informática, por su trabajo en redes neuronales.
  • Aprendizaje autónomo: el renombrado científico explica que las IA no están programadas para tareas específicas sino que aprenden a través de algoritmos de aprendizaje, lo que plantea preocupaciones sobre el control humano.
  • Riesgos y beneficios: mientras que la IA tiene un gran potencial en campos como la atención médica, Hinton advierte sobre riesgos inmediatos como el desempleo, la desinformación y la automatización en el campo de batalla.
  • Incertidumbre futura: el “padrino de la IA” enfatiza la necesidad de regulaciones gubernamentales y tratados internacionales para mitigar los riesgos asociados con el desarrollo de la IA.

/psg