Un nuevo modelo de inteligencia artificial podría transformar radicalmente la forma en que se realiza la investigación científica. Se trata de AuroraGPT, una IA de vanguardia con un billón de parámetros, que aspira a contener e interrelacionar todo el conocimiento científico producido por la humanidad. Su diseño está orientado a detectar conexiones ocultas, analizar grandes volúmenes de datos y responder preguntas complejas, funcionando como una suerte de oráculo científico.
Desarrollado por el Argonne National Laboratory (ANL) en colaboración con Intel, el modelo está siendo entrenado en el superordenador Aurora, uno de los más potentes del mundo, que supera el medio exaflop de capacidad gracias a las GPU Ponte Vecchio de Intel.
Según Ogi Brkic, vicepresidente y gerente general de soluciones para centros de datos y computación de alto rendimiento en Intel, se trata de un “Science GPT: un modelo que la ciencia puede usar para acelerar la investigación”.
Un proyecto con ambición global
AuroraGPT no es un desarrollo aislado. A la iniciativa se han sumado otros laboratorios estadounidenses e internacionales con el objetivo común de hacer que la inteligencia artificial aplicada a la ciencia sea una herramienta tangible y accesible para investigadores de todo el mundo. Sus aplicaciones están proyectadas en áreas como la biología, el cambio climático o la lucha contra el cáncer.
Aunque todavía en una fase inicial, el modelo ya se encuentra en etapa de entrenamiento, un proceso que se extenderá por varios meses. Una vez terminado, estará disponible públicamente para toda la comunidad científica internacional.
Entrenamiento gradual y complejo
El proceso de entrenamiento de AuroraGPT supone un desafío técnico extraordinario. La fase inicial se está ejecutando en una red de 64 nodos del superordenador Aurora, un número menor al habitual en modelos de esta escala, debido al diseño específico del sistema. Posteriormente, se escalará progresivamente hasta alcanzar los 10.000 nodos disponibles.
El sistema emplea la tecnología Megatron/DeepSpeed de Microsoft para facilitar un entrenamiento distribuido y paralelo. Esta estrategia permite optimizar la eficiencia energética y el uso de recursos, uno de los puntos críticos en el desarrollo de modelos de lenguaje de gran tamaño.
Brkic subraya que el objetivo no es solo escalar la capacidad de procesamiento, sino también lograr una mayor eficiencia energética, considerando las críticas que suelen recibir estos sistemas por su alto consumo de recursos.
Un cerebro científico al servicio de la humanidad
Una vez en funcionamiento, AuroraGPT ofrecerá un acceso unificado al conocimiento científico global, permitiendo a los investigadores consultar, cruzar y explorar información como nunca antes. Su mayor potencial radica en la capacidad de integrar diversas disciplinas, generando nuevas hipótesis y hallazgos a partir de conexiones antes invisibles.
Si el proyecto cumple sus objetivos, podría marcar el inicio de una nueva era científica: una etapa en la que los descubrimientos se aceleren exponencialmente y los momentos “¡eureka!” surjan no por azar, sino como consecuencia natural de la capacidad analítica de esta inteligencia artificial.
- Esta noticia fue redactada utilizando los adelantos técnicos propios de este sitio web. Se acepta cualquier reproducción en otro medio, ojalá citando la fuente:www.eldiariodesantiago.cl
/psg