Tamaño y participación en el mercado de la informática de alto rendimiento

Análisis del mercado de la informática de alto rendimiento por Mordor Intelligence
Se proyecta que el tamaño del mercado de computación de alto rendimiento se expandirá de USD 55.78 millones en 2025 y USD 60.12 millones en 2026 a USD 87.5 millones en 2031, registrando una tasa de crecimiento anual compuesta (TCAC) del 7.79 % entre 2026 y 2031. Esta trayectoria se ve impulsada por los mandatos soberanos de inteligencia artificial en Asia, las asignaciones federales récord para programas de exaescala en Estados Unidos y una aceleración del cambio hacia el diseño de productos basado en simulación en los flujos de trabajo de automoción, ciencias de la vida y energía. La persistente escasez de memoria de alto ancho de banda y la migración de cargas de trabajo de inferencia de GPU de propósito general a aceleradores personalizados también están transformando las configuraciones de los servidores, lo que anima a las empresas a adoptar arquitecturas modulares de refrigeración líquida y chiplets que prolongan la vida útil de los sistemas. Los clientes gubernamentales están pasando de los experimentos de capacidad a las operaciones de misión crítica, como lo demuestra la puesta en servicio en 2024 del sistema El Capitan de 2 exaflops para la gestión de reservas nucleares, mientras que los compradores del sector privado están aprovechando la capacidad de ráfagas de nubes para gestionar picos episódicos en dinámica de fluidos computacional y cálculo de riesgos de Monte Carlo. Paralelamente, el mandato de pruebas virtuales EURO-NCAP 2030 obliga a los fabricantes europeos de equipos originales de automoción a triplicar el rendimiento de la simulación, lo que indirectamente intensifica la demanda de GPU, que ya supera la oferta. En este contexto, las organizaciones de investigación por contrato con sede en Asia Pacífico aprovechan las tarifas energéticas más bajas y los subsidios soberanos para obtener contratos de externalización farmacéutica de sus homólogos norteamericanos, lo que demuestra que las estructuras de costos específicas de cada geografía ahora modulan la asignación de la carga de trabajo.
Conclusiones clave del informe
- Por componentes, el hardware mantuvo una participación del 51.54% del mercado de computación de alto rendimiento (HPC) en 2025, mientras que los servicios avanzan a una CAGR del 9.42% hasta 2031, el ritmo más rápido entre todos los componentes.
- Por modo de implementación, las instalaciones en la nube controlaron el 48.88% del mercado de HPC en 2025, mientras que se prevé que las arquitecturas híbridas registren una CAGR del 8.22% hasta 2031.
- Por tipo de chip, los sistemas basados en GPU aseguraron el 59.22% de los ingresos de 2025, aunque se proyecta que los circuitos integrados específicos de aplicaciones y los aceleradores de IA se expandirán a una CAGR del 8.86%, el ritmo de crecimiento más alto del segmento.
- Por aplicación industrial, las cargas de trabajo gubernamentales y de defensa lideraron con el 24.16 % de la participación de mercado de HPC en 2025, mientras que se prevé que las ciencias biológicas crezcan a una CAGR del 9.54 %, la más rápida entre los casos de uso actuales.
- Por geografía, América del Norte capturó el 40.48% de los ingresos en 2025; sin embargo, Asia Pacífico es la región de más rápido crecimiento, con una CAGR del 7.98% esperada hasta 2031.
Nota: El tamaño del mercado y las cifras de pronóstico en este informe se generan utilizando el marco de estimación patentado de Mordor Intelligence, actualizado con los últimos datos y conocimientos disponibles a enero de 2026.
Tendencias y perspectivas del mercado global de computación de alto rendimiento
Análisis del impacto de los impulsores
| Destornillador | (~) % Impacto en el pronóstico de CAGR | Relevancia geográfica | Cronología del impacto |
|---|---|---|---|
| Explosión de cargas de trabajo de capacitación en IA y ML en laboratorios federales de EE. UU. y proveedores de nube de nivel 1 | + 2.1% | América del Norte, con propagación a las regiones de hiperescala de Europa y Asia Pacífico | Mediano plazo (2-4 años) |
| Creciente demanda de dinámica molecular acelerada por GPU en los centros de subcontratación farmacéutica de Asia | + 1.3% | Núcleo de Asia Pacífico (China, India, Corea del Sur), expandiéndose al Sudeste Asiático | Corto plazo (≤ 2 años) |
| Cumplimiento obligatorio de la simulación ADAS automotriz en la hoja de ruta EURO-NCAP 2030 de la UE | + 1.5% | Europa (Alemania, Francia, Italia), con adopción en América del Norte y Japón | Largo plazo (≥ 4 años) |
| Iniciativas nacionales de exaescala que impulsan la adopción de procesadores autóctonos en China e India | + 1.2% | Asia Pacífico (China, India), con transferencia de tecnología limitada a Oriente Medio | Largo plazo (≥ 4 años) |
| Adopción rápida de gemelos digitales para la optimización del almacenamiento de baterías a escala de red | + 0.9% | Global, con concentración temprana en California, Texas, Alemania y Australia. | Mediano plazo (2-4 años) |
| Aparición de aceleradores de recocido de inspiración cuántica para la optimización de carteras | + 0.6% | Centros financieros de América del Norte y Europa (Nueva York, Londres, Singapur) | Largo plazo (≥ 4 años) |
| Fuente: Inteligencia de Mordor | |||
La explosión de las cargas de trabajo de capacitación en IA y ML en laboratorios federales de EE. UU. y proveedores de nube de nivel 1
Las agencias federales ahora integran infraestructura a escala de petaflop en sus procesos operativos de IA, en lugar de entornos de prueba de investigación aislados. El Frontier de 1.2 exaflops del Laboratorio Nacional de Oak Ridge entrena modelos básicos que reducen los ciclos de descubrimiento de la química de las baterías de 18 meses a 6 semanas, validando la transición de las pruebas de referencia exploratorias a resultados reales.[ 1 ]La supercomputadora Frontier debuta como la más rápida del mundo, Oak Ridge National Laboratory, ornl.gov La Misión Génesis 2025 de la Fundación Nacional de Ciencias destina 800 millones de dólares estadounidenses a clústeres de IA distribuidos en 20 universidades, lo que multiplica el acceso regional a los recursos del mercado de la computación de alto rendimiento. Las instancias ND H100 v5 de Microsoft Azure proporcionan estructuras InfiniBand de 3.2 terabits por segundo que permiten a las empresas farmacéuticas construir transformadores de 100 000 millones de parámetros sin fragmentación entre regiones. El estímulo combinado federal-privado impulsa los ciclos de actualización de las GPU, lo que vuelve obsoletos económicamente los nodos A100 heredados para cargas de trabajo de billones de parámetros y reduce la demanda de los escasos aceleradores basados en HBM3e.
Creciente demanda de dinámica molecular acelerada por GPU en los centros de externalización farmacéutica asiáticos
Las organizaciones de investigación por contrato en China e India implementan miles de GPU para comprimir simulaciones de unión de moléculas pequeñas de semanas a horas, lo que les permite competir en igualdad de condiciones con las empresas farmacéuticas occidentales. El clúster de Shanghái de 5,000 GPU de WuXi AppTec analiza 10 millones de compuestos por trimestre con un rendimiento de CPU 40 veces superior, lo que ofrece un coste por hora de GPU aproximadamente un 60 % inferior al de los laboratorios norteamericanos gracias a la electricidad subvencionada y las exenciones fiscales.[ 2 ]Empresas de salud y productos farmacéuticos, Reuters, reuters.com PARAM Rudra de la India asigna un tercio de su presupuesto computacional de 2025 a los laboratorios del Consejo de Investigación Científica e Industrial, acelerando el descubrimiento de fármacos contra la tuberculosis mediante la fusión de estructuras de proteínas generadas por AlphaFold con motores de acoplamiento controlados por GPU.[ 3 ]Misión Nacional de Supercomputación MeitY, Gobierno de la India, meity.gov.in Este arbitraje geográfico desplaza los procesos preclínicos farmacéuticos hacia el este, lo que refuerza la participación a largo plazo de Asia Pacífico en el mercado de la informática de alto rendimiento.
Cumplimiento obligatorio de la simulación ADAS automotriz en la hoja de ruta EURO-NCAP 2030 de la UE
Las pruebas virtuales respaldan ahora las calificaciones de seguridad de cinco estrellas en toda Europa, lo que obliga a los fabricantes de automóviles a modelar 10 000 millones de kilómetros digitales antes de que los prototipos físicos se estrellen contra muros de hormigón. Volkswagen se comprometió a alcanzar 500 petaflops de nueva capacidad para 2027 y Stellantis destinó 300 millones de euros (339 millones de dólares) a un centro de simulación en Turín alimentado por 4 millones de flujos telemáticos de vehículos conectados. Los clústeres con GPU, capaces de renderizar escenarios de fusión de sensores a 1,000 fotogramas por segundo, sustituyen a los laboratorios de accidentes multimillonarios, generando una capa inamovible de demanda de computación, independientemente de las ventas cíclicas de vehículos. La hoja de ruta también se extiende a las filiales estadounidenses y japonesas, ampliando el horizonte del mercado de la computación de alto rendimiento.
Iniciativas nacionales de exaescala que impulsan la adopción de procesadores autóctonos en China e India
La fricción en el control de las exportaciones aceleró los programas nacionales de silicio. El Sunway Oceanlight chino, de 1.3 exaflops, utiliza procesadores SW26010-Pro fabricados a 14 nanómetros, lo que evita la necesidad de licencias extranjeras y, al mismo tiempo, apoya la investigación climática y aeroespacial a gran escala. El procesador AUM indio de 64 núcleos basado en ARM es la base del futuro sistema PARAM Siddhi-AI, que entrará en funcionamiento en 2026, y confiere soberanía en la cadena de suministro para usos de defensa. Si bien el rendimiento de un solo hilo es inferior al de las CPU occidentales, la gran cantidad de núcleos confiere un alto rendimiento por vatio competitivo. Estos sistemas dividen el mercado global de la computación de alto rendimiento en ejes geopolíticos, con los proveedores occidentales compitiendo por rendimiento y los asiáticos por autonomía.
Análisis del impacto de las restricciones
| Restricción | (~) % Impacto en el pronóstico de CAGR | Relevancia geográfica | Cronología del impacto |
|---|---|---|---|
| Aumentan las restricciones al uso de agua en los centros de datos en estados de EE. UU. propensos a sequías | -0.8% | Oeste de Estados Unidos (California, Arizona, Nevada), con restricciones emergentes en Texas | Corto plazo (≤ 2 años) |
| Los requisitos de borde de latencia ultrabaja socavan la economía de la nube centralizada | -0.6% | Global, con un impacto agudo en las implementaciones de vehículos autónomos e IoT industrial | Mediano plazo (2-4 años) |
| La escasez mundial de memoria HBM3e limita los envíos de servidores GPU entre 2024 y 26 | -1.1% | Global, con cuellos de botella de suministro concentrados en Corea del Sur y Taiwán | Corto plazo (≤ 2 años) |
| Regulaciones de cibersoberanía que limitan las cargas de trabajo transfronterizas de HPCaaS | -0.7% | Europa (RGPD), China (Ley de Seguridad de Datos), Rusia, con repercusiones en India y Brasil | Largo plazo (≥ 4 años) |
| Fuente: Inteligencia de Mordor | |||
Aumentan las restricciones al consumo de agua en centros de datos en estados de EE. UU. con tendencia a la sequía
La escasez de agua ahora determina la selección del sitio. La orden de California de reducir en un 20% el uso industrial obligó a las instalaciones de Nivel 3 a modernizarse con refrigeración seca, lo que aumenta el consumo de energía en un 15%, lo que sumaría 50 millones de dólares por sitio al capital de modernización de 2025.[ 4 ]Restricciones industriales de las Juntas de Agua, Junta de Control de Recursos Hídricos del Estado de California, waterboards.ca.gov Arizona suspendió la tramitación de nuevos permisos de aguas subterráneas en Phoenix, lo que obligó a los constructores a incorporar refrigeración líquida de circuito cerrado o cancelar proyectos. Google pospuso un proyecto de HPC de 200 megavatios en Nevada por falta de derechos de agua, sustituyéndolo por un diseño refrigerado por aire más costoso. La capacidad se desplaza hacia el norte, hacia Oregón y Washington, pero esta reorganización aumenta la latencia para las startups de IA con sede en California, que anteriormente disfrutaban de tiempos de ida y vuelta en una sola región inferiores a 10 milisegundos.
La escasez global de memoria HBM3e limita los envíos de servidores GPU entre 2024 y 26
El rendimiento del apilamiento de HBM3e se mantiene por debajo del 60%, lo que limita las asignaciones de H200 de NVIDIA y obliga a las entregas basadas en cuotas, favoreciendo a los hiperescaladores sobre los compradores empresariales. Los retrasos en la validación de Samsung retrasan el suministro significativo hasta mediados de 2026, lo que prolonga los plazos de entrega de los servidores XE9680 de Dell, cuya cartera de pedidos se disparó a 2 millones de dólares en el año fiscal 2025. Los lanzamientos de la nube también se retrasan; AWS retrasó la disponibilidad general de P5e a mediados de 2026. Un desajuste crónico entre silicio y memoria eleva los precios de los aceleradores y ralentiza la implementación de servicios de inferencia de IA, lo que resta un 1.1% a la pendiente de crecimiento compuesto del mercado de HPC.
Análisis de segmento
Por componente: Los servicios superan al hardware a medida que los modelos de consumo transforman las adquisiciones
Los servicios registraron la trayectoria más rápida, expandiéndose a una tasa de crecimiento anual compuesta (TCAC) del 9.42 % entre 2026 y 2031, a medida que las empresas se alejan de las compras de capital multimillonarias hacia contratos de pago por hora de núcleo. El hardware aún representó el 51.54 % de los ingresos en 2025, pero se proyecta que el tamaño del mercado de computación de alto rendimiento para servicios supere los 30 000 millones de dólares para 2031, cerrando la brecha histórica. Las ofertas de HPC administradas y HPC como servicio permiten a los clientes de la industria aeroespacial y la banca poner en marcha clústeres de 100 000 núcleos para periodos de dos días en lugar de bloquear los fondos en ciclos de depreciación de cinco años, lo que mejora la agilidad presupuestaria cuando la demanda es ocasional. Los proyectos de integración de sistemas ahora incluyen la portabilidad de aplicaciones, la refactorización de código y el ajuste del rendimiento, en particular para kernels Fortran o C heredados que requieren reescrituras optimizadas para GPU para aprovechar la concurrencia. Sin embargo, en cuanto al hardware, los nodos acelerados por GPU siguen teniendo limitaciones de suministro y la refrigeración líquida directa al chip se vuelve obligatoria a medida que los dispositivos de 700 vatios llevan las densidades de rack más allá de los 120 kilovatios.
Los proveedores de servicios profesionales garantizan cada vez más objetivos de rendimiento medidos en horas de trabajo, no en porcentajes de utilización, lo que alinea los incentivos con los resultados del cliente. Las matrices flash dominan las cargas de trabajo sensibles a la latencia, mientras que los repositorios de objetos almacenan archivos genómicos a escala de exabytes. Las ventas de interconexión migran a Ethernet de 400 gigabits para compradores preocupados por los costes y a InfiniBand NDR para implementaciones de alta gama que deben entrenar modelos de 100 000 millones de parámetros en 10 días. Los ingresos por software, aunque menores, sustentan la programación de trabajos, la orquestación de datos y la automatización de ráfagas híbridas, lo que permite una colocación basada en políticas que considera los precios puntuales de la nube y las reglas de residencia de datos en el mercado de HPC. En conjunto, estos cambios reordenan las estructuras de márgenes de los proveedores e inclinan la captura de valor a largo plazo hacia los servicios recurrentes.

Nota: Las participaciones de todos los segmentos individuales están disponibles al momento de la compra del informe.
Por modo de implementación: las arquitecturas híbridas concilian soberanía y elasticidad
La nube representó el 48.88 % de los ingresos de 2025, pero se proyecta que el tamaño del mercado de computación de alto rendimiento para implementaciones híbridas se expandirá más rápido, con una tasa de crecimiento anual compuesta (TCAC) del 8.22 % hasta 2031, ya que las consideraciones de seguridad y costos dictan un enfoque combinado. Las empresas descubren que las cargas de trabajo sostenidas que superan los 18 meses logran un menor costo total de propiedad en infraestructura propia, mientras que los cálculos estacionales o exploratorios aún favorecen la ráfaga de nubes. Las agencias de defensa y los operadores de alta frecuencia, limitados por una latencia de submilisegundos y mandatos de seguridad con brechas de aire, mantienen los planos de control en sus instalaciones, pero externalizan los barridos de parámetros a nubes públicas fuera del horario laboral. La migración de Schlumberger en 2025 a un modelo Houston-plus-OCI subraya el potencial de ahorro de la tecnología híbrida, recortando USD 120 millones de la inversión de capital proyectada para tres años.
La complejidad operativa aumenta con la portabilidad de la carga de trabajo. Las tarifas de salida de 0.12 USD por gigabyte hacen que la redistribución de petabytes resulte poco rentable. Por ello, las empresas priorizan la relación cómputo-datos al seleccionar los lugares de ejecución. Los programadores nativos de Kubernetes, como IBM Spectrum LSF y HPE Slingshot, automatizan la asignación de recursos, pero los responsables de cumplimiento normativo aún examinan los flujos de datos transfronterizos para cumplir con el RGPD y las normativas sectoriales. Los proveedores de nube contraatacan prometiendo zonas HPC con restricciones regionales y garantías de residencia, pero estas ofertas conllevan precios elevados. El auge de los híbridos redefine el mercado de la computación de alto rendimiento para equipos de red, pasarelas de almacenamiento y pilas de observabilidad optimizadas para topologías multisitio.
Por tipo de chip: los aceleradores ASIC e IA desafían la hegemonía de la GPU en cargas de trabajo especializadas
Las GPU dominaron el 59.22 % de los ingresos de 2025; sin embargo, se prevé que los ASIC y los aceleradores de IA dedicados se expandan a una tasa de crecimiento anual compuesta (TCAC) del 8.86 %, lo que reducirá su participación a medida que la inferencia eclipsa al entrenamiento en horas de cómputo agregadas. El TPU v5e de Google ilustra esta tendencia, ofreciendo un rendimiento 2.5 veces superior al A100 para la inferencia de transformadores, con un consumo un 40 % menor de energía. La ventaja de las GPU en la cuota de mercado de la informática de alto rendimiento persiste en tareas de doble precisión como el modelado climático, pero la inferencia INT8 y FP8, que constituyen la mayor parte de la IA de producción, ahora favorece el silicio de función fija. Las CPU siguen siendo esenciales para la coordinación, la E/S y las cargas de trabajo no aptas para el paralelismo masivo; el EPYC de 96 núcleos de AMD acapara el 35 % de las ventas de CPU de HPC solo por su densidad de núcleos.
Las arquitecturas de chiplet difuminan las fronteras categóricas. El H200 de NVIDIA integra un motor de transformador para la matemática FP8, mientras que el MI300 de AMD coubica módulos de CPU y GPU mediante empaquetado 2.5D para reducir la latencia de la memoria en un 40 %. Los FPGAs mantienen su relevancia en segmentos de latencia ultrabaja, como el de precios de opciones electrónicas, donde plazos de microsegundos justifican precios de tarjetas de 20 000 USD. CUDA, ROCm, TensorRT, OneAPI y las cadenas de herramientas ASIC propietarias dividen la atención de los desarrolladores, lo que aumenta el coste fijo de adoptar nuevas variantes de silicio y complica las decisiones de adquisición para las instituciones más pequeñas.

Nota: Las participaciones de todos los segmentos individuales están disponibles al momento de la compra del informe.
Por aplicación industrial: las ciencias biológicas superan las cargas de trabajo de ingeniería tradicionales
El gobierno y la defensa representaron el 24.16 % de los ingresos en 2025 gracias a la simulación de armas nucleares y el análisis de inteligencia. Sin embargo, su crecimiento se modera a medida que los sistemas insignia de exaescala pasan de la construcción a la utilización. Por el contrario, las ciencias de la vida y la salud presentan una tasa de crecimiento anual compuesta (TCAC) del 9.54 % y se encaminan a superar a la ingeniería para 2029, aprovechando la curva de adopción del descubrimiento de fármacos basado en IA generativa. Moderna redujo el cribado preclínico de vacunas a 6 meses en un clúster de 10 000 GPU, triplicando el rendimiento anual de candidatos. El tamaño del mercado de HPC para el descubrimiento farmacéutico aumenta la inversión en motores de dinámica molecular, códigos de química cuántica y redes neuronales gráficas que predicen la afinidad proteína-ligando.
La ingeniería automotriz crece a una tasa de crecimiento anual compuesta (TCAC) del 7.2 % gracias a los mandatos de colisiones virtuales impulsados por la UE y las simulaciones de baterías de vehículos eléctricos que combinan solucionadores electroquímicos y térmicos. La banca y los servicios financieros registran una TCAC del 8.1 % gracias a que los operadores algorítmicos implementan clústeres de clase petaflop para cálculos de valor en riesgo (VAR) y modelos de detección de fraude de un día para otro. Las grandes empresas energéticas estabilizan o contraen ligeramente sus centros de datos físicos a medida que la carga de trabajo sísmica se traslada a la nube, aunque los modelos de yacimientos de alta resolución aún requieren GPU locales durante las ventanas de perforación exploratoria. La confluencia de nuevos algoritmos de modelado biológico y los mandatos de simulación regulatoria amplía el abanico de posibilidades de la industria de la computación de alto rendimiento, lo que refuerza el impulso multivertical.
Análisis geográfico
Norteamérica representó el 40.48 % de los ingresos de 2025, respaldados por 3500 millones de dólares estadounidenses en financiación federal a exaescala y operadores de nube a hiperescala que invierten anualmente más de 200 000 millones de dólares en centros de datos optimizados para IA. El tamaño del mercado de la informática de alto rendimiento en Canadá aumenta a medida que el proveedor de recocido cuántico D-Wave envía sistemas de 10 000 cúbits para la optimización de carteras, conectando los flujos de trabajo clásicos y cuánticos para las instituciones financieras. La entrada de México sigue siendo modesta, ofreciendo simulación de accidentes automovilísticos nearshore a través de un clúster de General Motors de 5 petaflops instalado en Toluca. Geográficamente, las restricciones al consumo de agua en California y las moratorias de centros de datos en Virginia desvían las nuevas construcciones a Oregón, Washington y Texas, reasignando sutilmente los perfiles de latencia intrarregionales que históricamente favorecían a Silicon Valley.
Se proyecta que Asia Pacífico crecerá más rápido, con una CAGR del 7.98 %, impulsada por implementaciones autóctonas de exaescala y programas de silicio soberano. Sunway Oceanlight de China y sus sistemas posteriores eluden los regímenes de exportación extranjeros y permiten la modelización climática y el diseño aeroespacial sin depender de chips occidentales. La Misión Nacional de Supercomputación 2.0 de la India, con un presupuesto de 1.2 millones de dólares, instalará 25 petaflops en campus académicos para 2027, democratizando el acceso para las startups de biotecnología y pronóstico del tiempo. Fugaku, basado en ARM en Japón, sigue siendo el referente en eficiencia energética, influyendo en las hojas de ruta globales de CPU, mientras que Corea del Sur alinea clústeres de simulación de procesos de semiconductores con Samsung R&D para acelerar el empaquetado de HBM. La expansión de 15 petaflops de Singapur posiciona su centro nacional de supercomputación como un centro de la ASEAN para cargas de trabajo farmacéuticas y financieras. Las leyes de residencia de datos y cibersoberanía obligan a las empresas multinacionales a mantener clústeres en el país, lo que da lugar a una cadena de suministro regional fragmentada pero de rápido crecimiento.
Europa capturó el 22% de los ingresos globales de 2025. La Iniciativa Común EuroHPC financia sistemas de exaescala como el finlandés LUMI de 309 petaflops y el italiano Leonardo de 304 petaflops para la investigación en ciencia de materiales y clima. La máquina de exaescala JUPITER de Alemania utiliza GPU NVIDIA H100 y gabinetes BullSequana de Eviden para respaldar las simulaciones de accidentes de Volkswagen y el diseño de catalizadores de BASF. El mandato EURO-NCAP 2030 sigue siendo un impulsor estructural de la demanda de clústeres de GPU en Alemania, Francia e Italia, mientras que los países nórdicos atraen desarrollos de nube privada gracias a la abundante energía hidroeléctrica y la refrigeración ambiental gratuita. Las obligaciones de residencia impuestas por el RGPD sustentan el crecimiento local e híbrido, especialmente en los sectores de la salud y las finanzas, donde los registros confidenciales no pueden traspasar las fronteras nacionales.
Sudamérica, Oriente Medio y África siguen siendo regiones emergentes, pero ricas en oportunidades. Petrobras (Brasil) opera 10 petaflops para modelos de yacimientos marinos, y KAUST (Arabia Saudita) añadió 15 petaflops en 2024 para investigación en energías renovables y desalinización. Emiratos Árabes Unidos encargó un clúster de 8 petaflops para la capacitación en modelos de idiomas árabes de gran tamaño y para la creación de ciudades inteligentes. Technion (Israel) amplió su capacidad a 5 petaflops para análisis de ciberseguridad, mientras que CHPC (Sudáfrica) mantiene 4 petaflops para minería y epidemiología. Las deficiencias en infraestructura, como la intermitencia del suministro eléctrico en Nigeria y la grave escasez de agua en los países del Golfo, elevan el costo de implementación, lo que fomenta diseños en contenedores o modulares optimizados para la eficiencia energética.

Panorama competitivo
El mercado de la informática de alto rendimiento está moderadamente concentrado. En hardware, NVIDIA, Intel, AMD, Hewlett Packard Enterprise y Dell Technologies captaron alrededor del 60% de los ingresos de 2025; mientras tanto, el software, los servicios en la nube y la integración siguen fragmentados entre más de 50 proveedores especializados. La propiedad de Mellanox por parte de NVIDIA le permite agrupar GPU y conmutadores InfiniBand como una pila de exaescala llave en mano, asegurando victorias de diseño para El Capitan en Estados Unidos y JUPITER en Alemania. Los hiperescaladores contrarrestan mediante la integración vertical: la CPU Graviton4 de Amazon, la TPU v5 de Google y el acelerador Maia de Microsoft evitan la escasez de GPU comerciales y reducen el coste marginal por inferencia. Los fabricantes de equipos originales de servidores abordan la reducción de los márgenes de ganancia de hardware mediante la integración de servicios de refrigeración líquida y gestión, como lo ilustra el PowerEdge XE9712 de Dell con densidades de unidades de rack que superan los 12 kilovatios.
Las startups se abren camino en nichos de alto valor. El motor a escala de oblea de Cerebras elimina los cuellos de botella entre chips y entrena modelos de 20 mil millones de parámetros diez veces más rápido que los nodos de ocho GPU en benchmarks farmacéuticos. SambaNova aprovecha el flujo de datos reconfigurable para superar a las GPU en redes neuronales dispersas, comunes en cargas de trabajo de detección y recomendación de fraude. Los enfoques chiplet cobran fuerza; el MI300 de AMD integra matrices de GPU y CPU mediante apilamiento 3D, reduciendo la latencia entre mosaicos en un 40 % y logrando implantaciones de Meta y Microsoft en 2025. NVIDIA presentó 127 patentes de interconexión óptica en 2024, lo que sugiere una hoja de ruta hacia la fotónica de silicio que podría ofrecer enlaces de 10 terabits por segundo, dejando obsoleto el InfiniBand basado en cobre después de 2028.
Las modernizaciones de refrigeración líquida se convierten en una oportunidad de más de 500 millones de dólares para 2026, a medida que los estados exigen un menor consumo de agua. Proveedores como Asetek y CoolIT ahora venden soluciones directas al chip que reducen las pérdidas por evaporación en un 80 %, lo que abre vías de expansión en el oeste de Estados Unidos, afectado por la sequía. Estos cambios recalibran la captura de valor en el continuo hardware-servicios, mientras que la orquestación de flujos de trabajo nativos de la nube redefine las barreras de entrada en la industria de la computación de alto rendimiento en general.
Líderes de la industria de la computación de alto rendimiento
Advanced Micro Devices, Inc.
NEC Corporation
Hewlett Packard Enterprise
Qualcomm Incorporated
Fujitsu limitada
- *Descargo de responsabilidad: los jugadores principales están clasificados sin ningún orden en particular

Desarrollos recientes de la industria
- Enero de 2026: NVIDIA comenzó a realizar envíos en volumen de su GPU Blackwell B200 con 208 mil millones de transistores y 20 petaflops de rendimiento FP4, para abastecer a Microsoft Azure y al SuperCluster de investigación de inteligencia artificial de Meta.
- Diciembre de 2025: Hewlett Packard Enterprise obtuvo un contrato de 1.2 millones de dólares con el Departamento de Energía de Estados Unidos para implementar Aurora 2 en el Laboratorio Nacional Argonne, con el objetivo de alcanzar 2.5 exaflops para la simulación de reactores nucleares.
- Noviembre de 2025: Amazon Web Services lanzó instancias EC2 P5e basadas en GPU NVIDIA H200 y redes Elastic Fabric Adapter de 3.2 terabits por segundo, lo que permitió el entrenamiento de modelos de 1 billón de parámetros.
- Octubre de 2025: AMD presentó la GPU Instinct MI325X con 288 gigabytes de memoria HBM3e y obtuvo victorias en el diseño de Meta y Oracle Cloud Infrastructure para el entrenamiento de IA generativa.
Marco metodológico de investigación y alcance del informe
Definiciones de mercado y cobertura clave
Nuestro estudio define el mercado de la computación de alto rendimiento (HPC) como los ingresos anuales generados por servidores especializados, subsistemas de almacenamiento, interconexiones de alta velocidad, software habilitador y servicios profesionales o gestionados relacionados que permiten a las organizaciones ejecutar cargas de trabajo masivamente paralelas o aceleradas en entornos científicos, de ingeniería, analíticos y de IA.
Exclusión del ámbito de aplicación: Se excluyen las GPU para juegos de consumo vendidas en tiendas minoristas y la infraestructura de nube genérica no configurada para cargas de trabajo HPC.
Descripción general de la segmentación
- Por componente
- Ferretería
- Servidores
- Servidores de CPU de propósito general
- Servidores acelerados por GPU
- Servidores basados en ARM
- Sistemas de almacenamiento
- Matrices de disco duro
- Matrices basadas en Flash
- Almacenamiento de objetos
- Interconexión y redes
- InfiniBand
- Ethernet (25/40/100/400 GbE)
- Interconexiones personalizadas u ópticas
- Servidores
- Software
- Software del sistema (SO, gestión de clústeres)
- Herramientas de middleware y RAS
- Sistemas de archivos paralelos
- Servicios
- Servicios profesionales
- HPC administrado y como servicio (HPCaaS)
- Ferretería
- Por modo de implementación
- Soluciones
- Cloud
- Híbrido
- Por tipo de chip (corte transversal con componente)
- CPU
- GPU
- FPGA
- Aceleradores ASIC o de IA
- Por Aplicación Industrial
- Gobierno y defensa
- Instituciones académicas y de investigación
- BFSI
- Ingeniería de fabricación y automoción
- Ciencias de la vida y salud
- Energía, Petróleo y Gas
- Otras aplicaciones de la industria
- Por geografía
- Norteamérica
- Estados Unidos
- Canada
- México
- Europa
- Alemania
- Reino Unido
- Francia
- Italia
- Países nórdicos (Suecia, Noruega, Finlandia)
- El resto de Europa
- Asia-Pacífico
- China
- Japón
- India
- South Korea
- Singapur
- Resto de Asia y el Pacífico
- Sudamérica
- Brasil
- Argentina
- Resto de Sudamérica
- Medio Oriente
- Israel
- Emiratos Árabes Unidos
- Saudi Arabia
- Turquía
- Resto de Medio Oriente
- África
- Sudáfrica
- Nigeria
- Resto de Africa
- Norteamérica
Metodología de investigación detallada y validación de datos
Investigación primaria
Nuestros analistas entrevistaron a integradores de sistemas HPC, arquitectos de semiconductores, gerentes de productos de HPC en la nube y directores de centros de cómputo nacionales en Norteamérica, Europa y Asia-Pacífico. Las conversaciones pusieron a prueba la intensidad de uso, las tasas de adopción de GPU, las tendencias de precios por hora de nodo y los plazos de entrega de las adquisiciones, lo que nos ayudó a verificar ratios secundarios y a perfeccionar las hipótesis de adopción regional.
Investigación documental
Comenzamos recopilando conjuntos de datos de dominio público de organismos de primer nivel como la lista TOP500, las justificaciones presupuestarias del Departamento de Energía de EE. UU., las convocatorias de subvenciones de la Empresa Común EuroHPC, los flujos comerciales de UN Comtrade HS-8471, el gasto en I+D de OECD STAN y artículos académicos indexados en IEEE Xplore. Los informes de las empresas, las presentaciones para inversores y portales comerciales de renombre como HPCwire aportaron información sobre los envíos de los proveedores. Algunos repositorios de pago, como D&B Hoovers para la distribución de beneficios y Dow Jones Factiva para el flujo de operaciones, complementaron la información faltante. Estas fuentes permitieron establecer la base histórica, enriquecer las curvas de precios de los componentes e identificar puntos de inflexión en las políticas o la financiación. Las fuentes mencionadas son solo un ejemplo; muchas otras publicaciones contribuyeron a la validación y clarificación.
Dimensionamiento y pronóstico del mercado
Un modelo descendente parte del seguimiento de los envíos globales de servidores y almacenamiento de clase HPC, complementado con la reconstrucción del comercio de hardware del canal gris, que luego se multiplica por los precios de venta promedio ponderados obtenidos de la información divulgada por los proveedores y verificaciones primarias. Los resultados se contrastan mediante consolidaciones ascendentes selectivas de los principales proveedores y los registros de consumo de nodos en la nube. Las variables clave incluyen la capacidad instalada en petaflops, el crecimiento de la asignación gubernamental para HPC, la penetración de aceleradores GPU, los volúmenes de horas de nodos HPC en la nube y las fluctuaciones del precio promedio de venta de semiconductores. La regresión multivariante de estos indicadores, combinada con el análisis de escenarios para la adopción de la nube hiperescalable, impulsa la previsión para el período 2025-2030. Cualquier subsegmento con escasa evidencia ascendente se prorratea utilizando las tendencias históricas de la combinación de componentes y se valida con la opinión de expertos.
Ciclo de validación y actualización de datos
Los informes superan análisis de anomalías, umbrales de variación interanual y revisión por pares antes de su aprobación. Actualizamos el informe cada doce meses y publicamos revisiones provisionales cuando importantes subvenciones, controles a la exportación o cambios tecnológicos alteran significativamente la demanda. Un analista realiza una revisión final justo antes de la entrega del informe.
¿Por qué la fiabilidad de los comandos básicos de computación de alto rendimiento de Mordor?
Las estimaciones publicadas sobre computación de alto rendimiento (HPC) suelen diferir porque los proveedores eligen distintos umbrales de carga de trabajo, combinan hardware con servicios en la nube de forma desigual o fijan los tipos de cambio en momentos distintos. Reconocemos estas realidades desde el principio.
Los principales factores que generan brechas surgen cuando otros integran los servidores de IA empresariales en la computación de alto rendimiento (HPC), aplican una erosión generalizada de los precios sin tener en cuenta los matices del tipo de chip o actualizan los modelos con poca frecuencia, pasando por alto así los aumentos repentinos en las adquisiciones de EuroHPC y las instalaciones financiadas por CHIPS de EE. UU. que nuestro conjunto de datos continuo ya captura.
Comparación de referencia
| Tamaño de mercado | Fuente anónima | Principal causante de la brecha |
|---|---|---|
| 55.71 millones de dólares (2025) | Mordor Intelligence | - |
| 61.68 millones de dólares (2025) | Consultoría Global A | Incluye el hardware de IA empresarial dentro del alcance, lo que infla el valor base. |
| 54.39 millones de dólares (2024) | Empresa de análisis B | Separa los ingresos de HPCaaS, lo que provoca un doble conteo parcial. |
| 49.90 millones de dólares (2027) | Editor de investigación C | Omite software y servicios gestionados; utiliza rangos de precios de servidores antiguos. |
La comparación muestra que, una vez normalizados el alcance y las recientes oleadas de financiación, la cifra de Mordor se sitúa en un rango medio, lo que proporciona a los responsables de la toma de decisiones una referencia equilibrada basada en variables transparentes y una cadencia de actualización que se mantiene al ritmo del panorama de la computación de alto rendimiento en rápida evolución.
Preguntas clave respondidas en el informe
¿Cuál es el valor proyectado del mercado de computación de alto rendimiento en 2031?
Se prevé que el mercado alcance los 87.50 millones de dólares en 2031.
¿Qué segmento se espera que crezca más rápido dentro del mercado de la computación de alto rendimiento?
Se proyecta que los servicios, impulsados por ofertas de HPC gestionadas y HPC como servicio, crecerán a una tasa compuesta anual del 9.42 % hasta 2031.
¿Por qué las implementaciones híbridas están ganando terreno?
Las arquitecturas híbridas equilibran las necesidades de seguridad y soberanía de los datos con la elasticidad de los recursos de la nube, lo que ofrece una ventaja de crecimiento CAGR del 8.22 %.
¿Cómo afectarán las limitaciones de suministro de HBM3e a las futuras compras de sistemas?
Los rendimientos limitados de HBM3e prolongan los plazos de entrega de los servidores GPU hasta 2027, lo que aumenta los costos de adquisición y alienta a los compradores a considerar alternativas de ASIC y CPU.
¿Qué región se está expandiendo más rápidamente en la adopción de computación de alto rendimiento?
Se prevé que Asia Pacífico registre una CAGR del 7.98 % entre 2026 y 2031, impulsada por proyectos de exaescala autóctonos y la demanda de subcontratación farmacéutica.
¿Qué tendencia en tecnología de refrigeración aborda las regulaciones del uso del agua en Estados Unidos?
Las renovaciones de refrigeración líquida directa al chip reducen el consumo por evaporación hasta en un 80%, lo que facilita la expansión de centros de datos en estados propensos a sequías.



