- Athena es el nuevo superordenador de la NASA, con más de 20 petaflops y un fuerte enfoque en eficiencia energética.
- Está alojado en la Modular Supercomputing Facility del Ames Research Center, en pleno Silicon Valley.
- Respaldará simulaciones de misiones espaciales, diseño de aeronaves y entrenamiento de modelos avanzados de inteligencia artificial.
- Forma parte del programa High-End Computing Capability y se integra en una estrategia híbrida junto a servicios de nube comercial.
Cuando una misión espacial falla en una simulación, suele ser una buena señal: el problema se detecta a tiempo, en un entorno seguro, y no en la rampa de lanzamiento. Detrás de esas pruebas hay sistemas capaces de mover una cantidad de datos descomunal, como si miles de calculadoras trabajaran al unísono. En esa liga entra Athena, el nuevo superordenador de la NASA, ya operativo y disponible para su comunidad científica y de ingeniería.
Con este sistema, la agencia busca dar un salto en capacidad de cálculo para afrontar una generación de misiones mucho más complejas, desde la exploración lunar con Artemis hasta proyectos de observación terrestre y desarrollo aeronáutico. Athena combina potencia en la escala de los petaflops con una eficiencia mejorada, dos factores clave para sostener en el tiempo la supercomputación que exigen las próximas décadas.
Athena en Ames: el nuevo corazón de la supercomputación de la NASA
Según la información difundida por la propia agencia, Athena está alojada en la Modular Supercomputing Facility del NASA Ames Research Center, en California, en pleno ecosistema tecnológico de Silicon Valley. Este centro es desde hace años uno de los nodos neurálgicos de la computación científica en la agencia espacial estadounidense.
La máquina se integra dentro del programa High-End Computing Capability (HECC), el portafolio de computación de alto rendimiento que coordina los recursos más potentes de la NASA. En la práctica, esto significa que Athena no es un equipo aislado, sino un pilar dentro de una infraestructura más amplia, diseñada para servir a múltiples misiones y departamentos, desde el espacio profundo hasta la atmósfera terrestre.
La NASA destaca que Athena comenzó a entregarse a usuarios en enero, después de una fase de pruebas beta en la que se validaron sus prestaciones con cargas de trabajo reales. Ese despliegue gradual permite que los equipos científicos migren sus flujos de trabajo sin interrupciones bruscas, manteniendo en paralelo la operativa de sistemas previos como Pleiades o Aitken mientras se consolidan los nuevos procesos.
Ubicar este superordenador en Ames, dentro de una instalación modular de supercomputación, también facilita futuras ampliaciones. El enfoque modular permite introducir nuevos nodos o tecnologías sin reconstruirlo todo desde cero, algo fundamental en un campo donde el hardware se queda obsoleto con rapidez.
Potencia en petaflops y apuesta por la eficiencia
En supercomputación, la pregunta no es “qué tal va de rápido”, sino cuántas operaciones de coma flotante puede realizar por segundo. Ese rendimiento se mide en flops, y cuando hablamos de niveles como el de Athena, la unidad que manda es el petaflop: un millón de gigaflops, o lo que es lo mismo, billones de operaciones por segundo.
La NASA sitúa a Athena con más de 20 petaflops de rendimiento máximo, lo que la coloca claramente por encima de generaciones anteriores dentro de la propia agencia, como Pleiades o Aitken. Aunque a nivel mundial existan sistemas de exaescala mucho más potentes, la clave aquí no es batir récords, sino ofrecer la combinación adecuada de potencia, estabilidad y coste operativo para las necesidades concretas de las misiones de la NASA.
Además de la fuerza bruta, la agencia subraya la importancia de la eficiencia energética y de servicio. No se trata solo de concentrar más nodos y procesadores, sino de lograr más resultados por cada unidad de energía consumida y por cada euro o dólar invertido en operación y mantenimiento. En términos coloquiales, es como pasar de un deportivo tragón a un coche igual de rápido pero que va mucho menos a la “gasolinera”.
Entre las especificaciones divulgadas, se menciona que el sistema supera el millar de nodos de cálculo, equipados con procesadores de alto número de núcleos (como la familia AMD EPYC) y respaldados por centenares de terabytes de memoria RAM, del orden de casi 800 terabytes. Esta combinación de muchos núcleos y gran memoria compartida es la que permite manejar simulaciones masivas y modelos de inteligencia artificial con millones de parámetros.
Aunque no compite de tú a tú con los gigantes de exaescala instalados en otros centros de Estados Unidos o Europa, Athena está dimensionada para las cargas de trabajo de la NASA: simulaciones de dinámica de fluidos a gran resolución, análisis de datos procedentes de satélites, modelos atmosféricos complejos y tareas intensivas de IA, entre otras.
Un socio digital para misiones espaciales y aeronáutica

La exploración actual ya no se apoya únicamente en prototipos físicos y ensayos de campo. Gran parte del trabajo previo se hace en el ordenador, a base de simulaciones que permiten probar miles de escenarios sin tocar una sola pieza de hardware real. Es aquí donde entra en juego un superordenador como Athena.
La NASA explica que el sistema permitirá recrear virtualmente lanzamientos de cohetes con un nivel de detalle muy alto, modelando la interacción de estructuras, combustible, aerodinámica y condiciones ambientales. Hablamos de calcular cómo responde un cohete ante variaciones minúsculas de temperatura o viento, o qué ocurre en la estructura si algo sale ligeramente fuera de lo previsto.
En el ámbito aeronáutico, Athena será clave para el diseño de aeronaves de nueva generación. Mediante modelos de dinámica de fluidos computacional (CFD), se puede estudiar cómo fluye el aire alrededor de alas, fuselajes y motores, probando geometrías que serían inviables de evaluar solo en túneles de viento. Esto acelera el desarrollo de aviones más eficientes, silenciosos y seguros.
También en ciencia pura y dura el papel de la máquina es central. El sistema se utilizará para comparar y cruzar grandes volúmenes de observaciones, identificar patrones sutiles en datos de telescopios o sondas, y explorar hipótesis que requerirían años de cálculo en equipos convencionales. En palabras de Kevin Murphy, responsable del portafolio High-End Computing Capability en la sede de la NASA en Washington, la exploración lleva a la agencia “hasta el borde de lo computacionalmente posible”, y Athena llega precisamente para empujar ese límite un poco más lejos.
Este tipo de capacidad no solo recorta tiempos. También permite que ciertos proyectos, que antes eran directamente inviables por requerir meses o años de procesamiento, pasen a ser rutinarios dentro de los flujos de trabajo científicos de la agencia.
Inteligencia artificial a gran escala dentro de la NASA
En los últimos años, la inteligencia artificial ha dejado de ser una curiosidad de laboratorio para convertirse en una herramienta diaria en ciencia e ingeniería. Entrenar modelos fundacionales o redes profundas capaces de analizar datos complejos exige infraestructuras con mucha potencia de cómputo y memoria, justo el terreno en el que se mueve Athena.
La NASA detalla que este superordenador se utilizará para entrenar modelos de IA que procesen conjuntos de datos masivos, desde observaciones de la Tierra hasta mediciones de sondas repartidas por el sistema solar. Estos sistemas automáticos pueden ayudar a clasificar señales, detectar eventos raros que un humano pasaría por alto, o generar alertas tempranas ante fenómenos relevantes.
Entre las aplicaciones destacadas figura la simulación de patrones atmosféricos complejos, tanto en nuestro planeta como en otros cuerpos celestes. Con ayuda de la IA y de modelos numéricos avanzados, es posible estudiar con más precisión cómo evolucionan tormentas, corrientes de aire o sistemas de nubes, lo que a su vez mejora las predicciones y la comprensión de los procesos físicos implicados.
Otro ámbito de interés es la predicción de los efectos de las tormentas solares en la Tierra. Analizar en tiempo casi real los datos del viento solar, los campos magnéticos y las respuestas de la magnetosfera requiere una capacidad de cómputo considerable. Athena permitirá entrenar y ejecutar modelos capaces de anticipar mejor el impacto de estos eventos en satélites, redes eléctricas y sistemas de comunicación.
La idea no es sustituir al personal científico, sino darle una herramienta más potente. En cierto modo, la IA que se entrena en Athena actúa como una lupa computacional que acelera tareas tediosas y deja más espacio para el análisis crítico y la interpretación de resultados.
Una estrategia híbrida: superordenador propio y nube comercial

Uno de los aspectos que la NASA enfatiza es que Athena forma parte de una estrategia híbrida de computación. El programa High-End Computing Capability combina superordenadores en centros propios, como el de Ames, con el uso selectivo de servicios de nube comercial cuando tiene sentido.
Este enfoque permite elegir en cada caso el “taller” adecuado para el trabajo a realizar. Algunas tareas encajan mejor en la nube, por su elasticidad y por la facilidad para integrar servicios especializados, mientras que otras requieren la estabilidad y el rendimiento sostenido de un sistema dedicado como Athena.
Para los equipos de investigación, esto se traduce en flexibilidad: pueden decidir dónde ejecutar simulaciones de alta fidelidad, dónde entrenar los modelos de IA más pesados, o dónde procesar grandes volúmenes de observaciones, sin estar atados a una única plataforma. La clave está en optimizar no solo el tiempo de cálculo, sino también el uso del presupuesto disponible.
En cuanto al acceso, la agencia indica que Athena está disponible para personal investigador de la NASA y para científicos externos que colaboren con sus programas, previa solicitud de tiempo de uso. Se trata de un recurso compartido, gestionado mediante asignaciones de capacidad según la relevancia y las necesidades de cada proyecto, un procedimiento habitual en los grandes centros de computación de alto rendimiento del mundo.
En Europa, centros como el Barcelona Supercomputing Center o los superordenadores de la red PRACE funcionan con esquemas similares, asignando horas de cálculo a proyectos competitivos. Athena se sitúa en esa misma lógica de infraestructura científica compartida, aunque con un foco muy marcado en las misiones de la NASA.
La infraestructura invisible que sostiene la próxima era espacial
Frente a las imágenes espectaculares de cohetes, cápsulas y paisajes lunares, la supercomputación tiende a quedar en segundo plano. Sin embargo, buena parte del éxito de esas misiones depende de infraestructuras como Athena, que permiten probar miles de variantes, anticipar fallos y extraer valor de océanos de datos.
La NASA describe a Athena como un cimiento digital para su próxima etapa de descubrimientos. Con una capacidad superior a los 20 petaflops, una arquitectura pensada para IA y simulación intensiva, y un enfoque claro en eficiencia, el sistema está llamado a convertirse en la “sala de máquinas” computacional de muchos de los proyectos que veremos despegar en los próximos años.
En términos prácticos, disponer de un recurso así significa que simulaciones que antes tardaban días pueden pasar a horas, y entrenamientos de modelos que parecían prohibitivos se vuelven más asumibles. Eso no elimina la necesidad de validar y revisar los resultados, pero sí cambia el ritmo al que la ciencia y la ingeniería pueden iterar.
Mientras en Europa y el resto del mundo se levantan centros de exaescala y se refuerzan las redes de supercomputación, Athena encaja como parte de una tendencia global: la exploración científica depende cada vez más del cálculo masivo. La diferencia está en que aquí el foco está estrechamente alineado con las misiones de la NASA y con el ecosistema espacial que gira a su alrededor.
Con su llegada a la Modular Supercomputing Facility de Ames, este superordenador se convierte en una pieza menos visible que un cohete o un rover, pero igual de necesaria. Al final, cada dato procesado, cada modelo refinado y cada simulación afinada en Athena será una pequeña parte de la base sobre la que se asienten las próximas decisiones científicas y de ingeniería de la agencia espacial estadounidense.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.
