Tamaño y participación en el mercado de aceleradores de IA

Análisis del mercado de aceleradores de IA por Mordor Intelligence
Se espera que el mercado de aceleradores de IA crezca de 140.55 millones de dólares en 2025 a 174.69 millones de dólares en 2026, y se prevé que alcance los 518.12 millones de dólares en 2031, con una tasa de crecimiento anual compuesta (TCAC) del 24.30 % entre 2026 y 2031. Este crecimiento excepcional refleja la demanda a gran escala de computación de IA generativa, una inversión de capital agresiva en semiconductores y rápidos cambios arquitectónicos que favorecen la memoria de alto ancho de banda y el empaquetado avanzado. Norteamérica mantuvo su liderazgo gracias a la concentración de implementaciones en la nube, mientras que Asia-Pacífico registró el mayor crecimiento unitario, gracias al impulso de los fabricantes chinos de vehículos eléctricos (VE) y las empresas surcoreanas de chips al silicio propietario. Los circuitos integrados específicos de la aplicación (ASIC) personalizados están ganando terreno a medida que los operadores buscan un menor coste total de propiedad (TCA). Sin embargo, las unidades de procesamiento gráfico (GPU) siguen dominando la formación inicial gracias a su versátil ecosistema de software. [ 1 ]Centro de Estudios Estratégicos e Internacionales, “El auge de la IA: Escenarios de crecimiento para los centros de datos GenAI hasta 2030”, csis.org Las limitaciones de la cadena de suministro en cuanto a empaquetado avanzado y memoria de gran ancho de banda, junto con las crecientes densidades de energía de los centros de datos, están redefiniendo el diseño de las instalaciones y las prioridades de inversión regionales.
Conclusiones clave del informe
- Al procesar la ubicación, las implementaciones en la nube/centro de datos capturaron el 75 % de la participación de mercado de aceleradores de IA en 2024, mientras que las soluciones de borde/en el dispositivo avanzan a una CAGR del 27 % hasta 2030.
- Por tipo de procesador, las GPU lideraron con una participación de ingresos del 60 % en 2024; se proyecta que los ASIC crecerán a una CAGR del 28 % hasta 2030.
- Por función, las aplicaciones de entrenamiento representaron el 58% del tamaño del mercado de aceleradores de IA en 2024, mientras que la inferencia está aumentando a una CAGR del 27% durante el mismo horizonte.
- Por industria de usuario final, los proveedores de servicios en la nube a hiperescala tenían el 53 % del tamaño del mercado de aceleradores de IA en 2024, mientras que los fabricantes de equipos originales (OEM) automotrices y los proveedores de nivel 1 se están expandiendo a una CAGR del 26 % hasta 2030.
- Por geografía, América del Norte tuvo una participación del 44% en 2024, y Asia-Pacífico exhibió el mayor crecimiento, con una CAGR del 28% hasta 2030.
- NVIDIA, AMD, Google y Amazon juntos capturaron aproximadamente el 80% de los ingresos por capacitación en 2024, lo que subraya un panorama de proveedores concentrado.
Nota: El tamaño del mercado y las cifras de pronóstico en este informe se generan utilizando el marco de estimación patentado de Mordor Intelligence, actualizado con los últimos datos y conocimientos disponibles a enero de 2026.
Tendencias y perspectivas del mercado global de aceleradores de IA
Tabla de análisis del impacto de los factores impulsores
| Destornillador | (%) Impacto en el pronóstico de CAGR | Relevancia geográfica | Cronología del impacto |
|---|---|---|---|
| Demanda de computación de IA generativa en centros de datos de hiperescala | + 8.5% | América del Norte, Asia-Pacífico, Europa | Mediano plazo (2-4 años) |
| Avances en chiplets y empaquetado avanzado | + 4.8% | Taiwán, Corea del Sur, Estados Unidos | Mediano plazo (2-4 años) |
| Crecimiento de aceleradores de borde de bajo consumo para automoción y salud | + 6.2% | Globalmente, el más fuerte en clústeres automotrices | Largo plazo (≥ 4 años) |
| Incentivos gubernamentales para la fabricación nacional de silicio de IA | + 3.7% | Estados Unidos, Europa, Japón, India | Largo plazo (≥ 4 años) |
| Fuente: Inteligencia de Mordor | |||
Demanda explosiva de computación de IA generativa en centros de datos de hiperescala
Los operadores de hiperescala están escalando a cientos de miles de GPU de alta gama por campus para respaldar tanto el entrenamiento de modelos como la inferencia 24/7. Las previsiones del sector indican que la base instalada podría alcanzar entre 6.5 y 7 millones de unidades anuales para 2025, lo que elevaría las necesidades energéticas a 84 GW, o aproximadamente la carga actual de la red eléctrica de un estado adicional de EE. UU. [CSIS.ORG]. La demanda sostenida ha impulsado los ingresos de los centros de datos de NVIDIA de 110 2024 millones de dólares en 173 a una previsión de 2025 XNUMX millones de dólares en XNUMX, lo que refuerza la importancia de la seguridad del suministro e impulsa una inversión sin precedentes en capacidad de empaquetado avanzado.
Proliferación de dispositivos de IA de borde que requieren aceleradores de bajo consumo
Las plataformas de automoción y salud requieren una latencia inferior a 20 milisegundos y un estricto cumplimiento de la soberanía de datos, lo que impulsa una transición hacia la inferencia en el dispositivo. Se proyecta que el mercado de chipsets de IA para automoción alcance los 14.68 millones de dólares en 2034, con un crecimiento anual del 20 %, mientras que la Administración de Alimentos y Medicamentos de EE. UU. (FDA) ha autorizado 950 dispositivos médicos con IA desde el inicio del rastreo, lo que representa un aumento del 15 % en el primer semestre de 2024. Nuevas soluciones, como A2X de Telechips, ofrecen 200 TOPS en paquetes integrados de sistema en chip (SOM), lo que marca un camino claro hacia una inteligencia localizada y rentable.
Avances en chiplets y empaquetado avanzado que aumentan el ancho de banda de la memoria
Las arquitecturas de chiplets heterogéneos están superando el límite de memoria que limita el rendimiento de la IA. Universal Chiplet Interconnect Express (UCIe) permite conexiones entre chips de múltiples proveedores, y los ensamblajes 3.5D de los líderes del sector integran más de 6,000 mm² de silicio en un solo encapsulado.[ 2 ]Nature Electronics, “Diseños de sistemas en paquete tridimensionales de alto rendimiento y bajo consumo con UCIe”, nature.com Cuando se combinan con una memoria de gran ancho de banda, estos diseños elevan la densidad de ancho de banda mucho más allá de la trayectoria del escalamiento monolítico convencional.[ 3 ]IBM Research, “Satisfacer las crecientes demandas de la IA con arquitecturas de chiplets”, ibm.com
Incentivos gubernamentales al estilo CHIPS para fábricas nacionales de silicio y IA
La Ley CHIPS y Ciencia de EE. UU. destinó 52.7 540 millones de dólares en apoyo directo, lo que impulsó más de 25 XNUMX millones de dólares en proyectos del sector privado anunciados y estableció un crédito fiscal del XNUMX % a la inversión en manufactura avanzada. Programas similares en Japón, Europa e India están acelerando el desarrollo de la capacidad regional, a la vez que introducen restricciones que limitan la expansión en jurisdicciones sensibles, lo que altera permanentemente la toma de decisiones en las fundiciones.
Tabla de análisis de impacto de restricciones
| Restricción | (%) Impacto en el pronóstico de CAGR | Relevancia geográfica | Cronología del impacto |
|---|---|---|---|
| Escasez de obleas de menos de 5 nm | −4.2% | Taiwán, Corea del Sur, Estados Unidos | Corto plazo (≤ 2 años) |
| Aumento del coste total de propiedad para grupos refrigerados por líquido | −3.1% | Mercados globales de hiperescala | Mediano plazo (2-4 años) |
| Fuente: Inteligencia de Mordor | |||
La escasez de obleas de <5 nm limita los volúmenes de envío
Incluso después de la aceleración del proceso, la demanda de obleas de vanguardia supera la oferta. Se espera que la producción mensual de 3 nm de TSMC alcance las 125,000 obleas en el segundo semestre de 2025. Sin embargo, los pedidos de empresas de electrónica de consumo y centros de datos mantienen un mercado de vendedores que mantiene los precios de las obleas cerca de los 21,000 USD.[ 6 ]Taiwan Semiconductor Manufacturing Company, “Actualización de la capacidad avanzada del nodo”, tsmc.com La capacidad alternativa limitada prolonga los plazos de entrega y aumenta la intensidad de capital de los nuevos diseños de IA.
Aumento del TCO de clústeres de GPU refrigerados por líquido
Los aceleradores de nueva generación superan los 1,000 W por dispositivo, lo que eleva las densidades de rack a más de 140 kW y hace indispensable la refrigeración líquida. La adopción alcanzó el 10 % de los racks de hiperescala a finales de 2024 y sigue aumentando a medida que la infraestructura mecánico-eléctrica existente tiene dificultades para disipar el calor de forma eficiente.[ 5 ]TrendForce, “Se espera que la penetración de la refrigeración líquida alcance el 10 % a finales de 2024”, trendforce.com Los operadores enfrentan costos adicionales por la distribución de refrigerante, la detección de fugas y el mantenimiento especializado, lo que en conjunto ralentiza el ritmo de implementación de centros de datos en regiones con limitaciones energéticas.
Análisis de segmento
Por tipo de procesador: las GPU mantienen el liderazgo mientras los ASIC aceleran
Las GPU representaron el 59.20% de los ingresos del mercado de aceleradores de IA en 2025. Su amplio ecosistema de software, representado por CUDA, las mantiene indispensables para la investigación y el desarrollo en etapas tempranas. Se proyecta que el tamaño del mercado de aceleradores de IA para ASIC se expandirá a una tasa de crecimiento anual compuesta (TCAC) del 27.15%, lo que refleja los diseños a medida de los hiperescaladores que buscan eficiencia energética y de costos durante la inferencia en estado estacionario. Las hojas de ruta de los proveedores muestran que los operadores de la nube están aumentando las salidas de cinta internas y comprometiendo el volumen de fundición con silicio propietario. Las matrices de puertas programables en campo (FPGA) siguen siendo atractivas cuando la reconfigurabilidad compensa un menor rendimiento máximo, especialmente para cargas de trabajo en el borde en constante evolución. Los híbridos de CPU/NPU abordan los dispositivos de consumo sensibles al costo mediante una estrecha integración del procesamiento del host, los motores de seguridad y los núcleos neuronales, ampliando las oportunidades para los proveedores comerciales.
El impulso hacia los ASIC está redefiniendo la asignación de capital. Broadcom prevé una oportunidad de ASIC de entre 60 y 90 mil millones de dólares para 2027, y los dispositivos internos de TPU, Tranium o Inferentia se incorporan cada vez más a los clústeres de producción. Por lo tanto, se espera que la GPU siga predominando en la investigación con entrenamiento intensivo; sin embargo, una proporción estructuralmente mayor del gasto en inferencia migrará a los ASIC a medida que avancen la madurez de los compiladores, las cadenas de herramientas de código abierto y las abstracciones de software. El entorno de arquitectura mixta resultante favorece a los proveedores capaces de ofrecer cadenas de herramientas unificadas en objetivos de hardware heterogéneos.

Nota: Las participaciones de todos los segmentos individuales están disponibles al momento de la compra del informe.
Al procesar la ubicación: las nubes dominan, pero Edge gana velocidad
Las instalaciones en la nube y de coubicación representaron el 74.30 % del gasto en 2025, gracias a las economías de escala y un mejor acceso a obleas de menos de 5 nm. Sin embargo, la entrega en el borde está experimentando un aumento de CAGR del 26.20 %, ya que la autonomía automotriz, los diagnósticos de salud en el punto de atención y la regulación de la privacidad requieren inferencia local. El mercado de aceleradores de IA ahora admite un modelo de dos niveles en el que el entrenamiento centralizado se complementa con la inferencia distribuida, lo que permite a los desarrolladores de aplicaciones minimizar la latencia y reducir la presión sobre el ancho de banda. Los clústeres de computación de alto rendimiento (HPC) locales siguen siendo importantes para las empresas de servicios financieros y los laboratorios nacionales que deben controlar los datos y garantizar una latencia determinista.
Los fabricantes de equipos originales (OEM) de automoción ilustran la inflexión de vanguardia. Los plazos de entrega de los productos Orin y Thor de NVIDIA impulsaron a las marcas chinas a reforzar sus programas internos de silicio, y los proveedores coreanos están alineando sus planes de empaquetado con los estándares de temperatura y seguridad para vehículos. El sector sanitario sigue una trayectoria similar, ya que los proveedores de diagnóstico por imagen integran procesos de IA directamente en los escáneres, evitando así las conexiones a la nube que comprometerían la eficiencia del flujo de trabajo o la privacidad del paciente.

Nota: Las participaciones de todos los segmentos individuales están disponibles al momento de la compra del informe.
Por función: Entrenamiento de líderes, aumentos repentinos de inferencia
El entrenamiento consumió el 57.30% de los ingresos de 2025, lo que refleja el elevado coste computacional de la creación de modelos de frontera. A medida que estos modelos se comercialicen, la inversión en inferencia aumentará con mayor rapidez, alcanzando una tasa de crecimiento anual compuesta (TCAC) del 26.10% hasta 2031. El tamaño del mercado de aceleradores de IA dedicados a la inferencia se beneficia de los diseños ASIC que priorizan la precisión numérica por la eficiencia energética. En la práctica, las cargas de trabajo de inferencia requieren un cómputo sostenido pero de menor latencia, lo que se alinea con las arquitecturas de aceleradores que priorizan el ancho de banda de memoria sobre la densidad de punto flotante. Los dispositivos emergentes presentan una mejora considerable en el consumo de vatios por token (W/T) con respecto a las GPU de gama alta, lo que subraya la lógica económica detrás de este cambio.
La transición altera los patrones de compra. Las empresas que antes se centraban en el máximo rendimiento de entrenamiento ahora priorizan las tasas de utilización de clústeres, la compatibilidad con compiladores y el middleware de orquestación de inferencias. Por lo tanto, los parámetros de referencia van más allá de TOPS o FLOPS para incluir el tiempo hasta el primer token y el coste total por resultado generado. Los proveedores que responden con conjuntos de hardware y software integrados verticalmente están obteniendo resultados piloto que se convierten rápidamente en compromisos plurianuales, consolidando la visibilidad de los ingresos.
Por industria de usuario final: los hiperescaladores consolidan la demanda, los automóviles aceleran
Los proveedores de nube a gran escala controlaron el 52.40 % del gasto en 2025, gracias a sus enormes flotas de nube pública y a sus canales de desarrollo de productos internos. Cada nueva función de IA generativa, desde búsquedas hasta productividad de oficina, incorpora capacidad de aceleración adicional a los acuerdos de nivel de servicio (SLA), que buscan tiempos de respuesta de un solo dígito en milisegundos. Simultáneamente, los proveedores de nube invierten miles de millones en chips propietarios para reducir la dependencia de los dispositivos comerciales y reducir los costos operativos.
Los fabricantes de automóviles representan el grupo de compradores de más rápido crecimiento, con una tasa de crecimiento anual compuesta (TCAC) del 25.30 %. Los ciclos de actualización de productos, al estilo de Silicon Valley, impulsan la demanda continua de hardware, desde la asistencia avanzada al conductor de nivel 2+ hasta las aspiraciones de conducción autónoma completa. NVIDIA controlaba aproximadamente el 30 % del mercado global de computación ADAS en 2024, pero proveedores chinos como Horizon Robotics, Huawei y los nuevos participantes coreanos están reduciendo esa cuota con productos optimizados en costes y compatibles con ASIL. El sector sanitario le sigue de cerca, ya que el auge de la imagenología con IA catapulta la inferencia de grado clínico a la práctica habitual. Los segmentos de servicios financieros y telecomunicaciones completan la demanda mediante estrategias comerciales de baja latencia e implementaciones de AI-RAN, cada una de las cuales requiere un ajuste del acelerador específico para cada dominio.
Análisis geográfico
Norteamérica captó una participación del 43.50 % del mercado de aceleradores de IA en 2025. La concentración de sedes en la nube a hiperescala, la profundidad de la financiación de riesgo y los incentivos de la Ley CHIPS continúan canalizando la demanda y la capacidad de fabricación hacia la región. Se espera que las inversiones continuas en fundiciones locales, empaquetado avanzado y ensamblaje de memoria de alto ancho de banda diversifiquen las cadenas de suministro y mitiguen la exposición geopolítica.
Asia-Pacífico registró el crecimiento más rápido, con una tasa de crecimiento anual compuesta (TCAC) del 27.00 % entre 2025 y 2031. Las empresas chinas de vehículos eléctricos (VE) iteran rápidamente el silicio automotriz patentado, mientras que la consolidación surcoreana —ejemplificada por la fusión Rebellions-Sapeon— genera líderes nacionales capaces de gestionar la capacidad de litografía y empaquetado. El dominio de Taiwán en la producción de obleas de menos de 5 nm sigue siendo crucial, aunque el riesgo geopolítico aumenta los incentivos para las instalaciones japonesas, indias y singapurenses especializadas en pruebas y ensamblaje de memoria avanzada.
Europa ocupa una posición más pequeña pero influyente, guiada por regímenes regulatorios estrictos y una sólida base de fabricación automotriz. La próxima Ley de IA, junto con los mandatos de sostenibilidad, está impulsando el diseño de aceleradores hacia la transparencia, la eficiencia energética y la rendición de cuentas durante todo el ciclo de vida. Mientras tanto, los países de Oriente Medio y África están poniendo en marcha centros de datos totalmente nuevos basados en la disponibilidad de energías renovables, sentando las bases para el futuro crecimiento regional una vez que las políticas, las habilidades y la conectividad maduren.

Panorama competitivo
El mercado de aceleradores de IA presenta una alta concentración. NVIDIA conservó cerca del 80 % de los ingresos globales por capacitación en 2024 gracias a la dependencia de CUDA, las bibliotecas de software integradas y un ecosistema de socios consolidado. AMD amplió su presencia mediante las adquisiciones de ZT Systems y Silo AI, que, en conjunto, aportan experiencia en integración de sistemas y talento en optimización de modelos, lo que ayuda a cerrar la brecha con la pila integral de NVIDIA.[ 8 ]Advanced Micro Devices, «AMD completa la adquisición de Silo AI», amd.com Google, Amazon y Microsoft implementan dispositivos locales (TPU, Trainium y Maia respectivamente) para cargas de trabajo internas y para inquilinos de nube pública, lo que erosiona sutilmente el dominio de las GPU de los comerciantes.
Especialistas como Groq, Cerebras y Graphcore se centran en arquitecturas de nicho diseñadas para la inferencia de transformadores, el entrenamiento a escala de oblea o las cargas de trabajo de tensor disperso. Su éxito depende de la madurez del compilador y de la adopción por parte de los desarrolladores. Las empresas emergentes centradas en el borde, como Hailo, DeepX y Axelera, buscan diseños de consumo ultrabajo con precios muy inferiores a 1 USD por TOPS, que abordan la larga cola de dispositivos embebidos.
La presión competitiva se está orientando hacia soluciones integrales que integran hardware, software de orquestación y capas de servicio. La adquisición de Run:ai por parte de NVIDIA ilustra este cambio, integrando la inteligencia de programación en la propuesta de valor del silicio y dificultando los esfuerzos de la competencia por ganar cuota de mercado basándose únicamente en el precio o el rendimiento. El escrutinio regulatorio y las capas de interoperabilidad de código abierto como ROCm y ZLUDA están ampliando las opciones para los desarrolladores, aunque el cambio real sigue frenado por los costes de migración de código y la familiaridad con el ecosistema.
Líderes de la industria de aceleradores de IA
NVIDIA Corporation
Advanced Micro Devices, Inc. (AMD) (Xilinx, Inc.)
Corporación Intel (Habana Labs Ltd.)
Google LLC
Amazon Web Services, Inc.
- *Descargo de responsabilidad: los jugadores principales están clasificados sin ningún orden en particular

Desarrollos recientes de la industria
- Agosto de 2024: AMD adquirió ZT Systems por USD 4.9 millones, ampliando su cartera de sistemas de centros de datos y acelerando la entrega de servidores de IA integrados.
- Agosto de 2024: AMD completó la adquisición de Silo AI por USD 665 millones, agregando capacidades de desarrollo de modelos multilingües.
- Agosto de 2024: Rebellions y Sapeon se fusionaron bajo el patrocinio del gobierno para formar una entidad surcoreana más grande de semiconductores de inteligencia artificial.
- Mayo de 2025: Telechips presentó el acelerador automotriz A2X con un rendimiento de NPU de 200 TOPS, apuntando a programas OEM globales.
- Febrero de 2025: Meta inició conversaciones para adquirir FuriosaAI como parte de un plan de inversión en hardware plurianual de USD 65 mil millones.
- Mayo de 2025: Axelera AI recaudó USD 68 millones para escalar su plataforma de inferencia de borde Metis basada en RISC-V.
Alcance del informe del mercado global de aceleradores de IA
| GPU |
| ASIC/TPU |
| FPGA |
| CPU / NPU / Otros |
| Nube / Centro de datos |
| Borde / En el dispositivo |
| HPC local |
| Cursos |
| Inferencia |
| Proveedores de servicios de nube a hiperescala |
| Centros de datos empresariales y de coubicación |
| Fabricantes de equipos originales (OEM) y de primer nivel de la industria automotriz |
| Salud y ciencias de la vida |
| Servicios Financieros |
| Infraestructura de telecomunicaciones y 5G |
| Otros usuarios finales (gobierno, ciberseguridad, manufactura, entre otros) |
| Norteamérica | Estados Unidos | |
| Canada | ||
| México | ||
| Sudamérica | Brasil | |
| Argentina | ||
| Chile | ||
| Resto de Sudamérica | ||
| Europa | Alemania | |
| Reino Unido | ||
| Francia | ||
| Italia | ||
| España | ||
| Russia | ||
| El resto de Europa | ||
| Asia-Pacífico | China | |
| Japón | ||
| South Korea | ||
| India | ||
| ASEAN | ||
| Australia y Nueva Zelanda | ||
| Resto de Asia-Pacífico | ||
| Oriente Medio y África | Medio Oriente | Saudi Arabia |
| EAU | ||
| Turquía | ||
| Israel | ||
| Resto de Medio Oriente | ||
| África | Sudáfrica | |
| Nigeria | ||
| Egipto | ||
| Resto de Africa | ||
| Por tipo de procesador | GPU | ||
| ASIC/TPU | |||
| FPGA | |||
| CPU / NPU / Otros | |||
| Por ubicación de procesamiento | Nube / Centro de datos | ||
| Borde / En el dispositivo | |||
| HPC local | |||
| Por función | Cursos | ||
| Inferencia | |||
| Por industria del usuario final | Proveedores de servicios de nube a hiperescala | ||
| Centros de datos empresariales y de coubicación | |||
| Fabricantes de equipos originales (OEM) y de primer nivel de la industria automotriz | |||
| Salud y ciencias de la vida | |||
| Servicios Financieros | |||
| Infraestructura de telecomunicaciones y 5G | |||
| Otros usuarios finales (gobierno, ciberseguridad, manufactura, entre otros) | |||
| Por geografía | Norteamérica | Estados Unidos | |
| Canada | |||
| México | |||
| Sudamérica | Brasil | ||
| Argentina | |||
| Chile | |||
| Resto de Sudamérica | |||
| Europa | Alemania | ||
| Reino Unido | |||
| Francia | |||
| Italia | |||
| España | |||
| Russia | |||
| El resto de Europa | |||
| Asia-Pacífico | China | ||
| Japón | |||
| South Korea | |||
| India | |||
| ASEAN | |||
| Australia y Nueva Zelanda | |||
| Resto de Asia-Pacífico | |||
| Oriente Medio y África | Medio Oriente | Saudi Arabia | |
| EAU | |||
| Turquía | |||
| Israel | |||
| Resto de Medio Oriente | |||
| África | Sudáfrica | ||
| Nigeria | |||
| Egipto | |||
| Resto de Africa | |||
Preguntas clave respondidas en el informe
¿Qué tamaño tendrá el mercado de aceleradores de IA en 2026?
El tamaño del mercado de aceleradores de IA alcanzó los USD 174.69 mil millones en 2026 y se prevé que aumente a USD 518.12 mil millones para 2031.
¿Cuál es la tasa de crecimiento proyectada para el gasto en aceleradores de IA?
Se espera que el gasto agregado avance a una CAGR del 24.30% entre 2026 y 2031.
¿Qué tipo de procesador domina las implementaciones actuales?
Las GPU representan el 59.20% de los ingresos de 2025 gracias a su ecosistema de software maduro y su versatilidad en todas las cargas de trabajo.
¿Por qué los aceleradores basados en ASIC están ganando popularidad?
Los ASIC personalizados mejoran el costo total de propiedad para inferencia al ofrecer mayor eficiencia energética y menor costo unitario que las GPU de propósito general.
¿Qué región se está expandiendo más rápidamente?
Asia-Pacífico está creciendo a una tasa de crecimiento anual compuesta (CAGR) del 27.00 % a medida que los fabricantes de vehículos eléctricos chinos y las empresas surcoreanas sin fábrica escalan el silicio de IA patentado.
¿Cuál es el mayor desafío operativo que enfrentan los operadores de centros de datos?
La creciente densidad de potencia por encima de 140 kW por rack está impulsando la adopción obligatoria de sistemas de refrigeración líquida, lo que añade costes y complejidad al diseño de las instalaciones.



