15 empresas líderes de hardware de IA que dominarán el mercado en 2026

Las empresas de hardware de IA están transformando rápidamente la industria tecnológica. NVIDIA ha recorrido un largo camino desde sus inicios en el sector de las tarjetas gráficas. La compañía alcanzó una valoración de 4 billones de dólares, lo que la convierte en una de las empresas más valiosas del mundo.

Las cifras en este sector son asombrosas. Bloomberg Intelligence predice que la inversión en IA generativa aumentará de 67 000 millones de dólares en 2023 a 1.3 billones de dólares en 2032. Price Waterhouse Coopers sugiere que el impacto económico de la IA generativa alcanzará los 15.7 billones de dólares en 2030. Estas cifras colosales explican por qué los gigantes tecnológicos se encuentran inmersos en una intensa batalla por el liderazgo del mercado.

Un mercado que antes era especializado se ha convertido en uno de los campos de batalla más feroces de la tecnología. Los principales fabricantes de chips de IA siguen ampliando las posibilidades: la GPU Blackwell de NVIDIA destaca por ser 2.5 veces más rápida y 25 veces más eficiente energéticamente que sus predecesoras.

La competencia se intensifica a medida que las grandes empresas diseñan sus propios chips en lugar de depender de proveedores externos. Taiwan Semiconductor ha aumentado la producción de chips de vanguardia de 3 y 5 nanómetros para satisfacer la creciente demanda.

Este artículo te mostrará las 15 empresas líderes en hardware de IA que dominan el mercado actual, sus mejores productos y su papel en la configuración del futuro de la informática.

NVIDIA

NVIDIA lidera la fabricación de chips de IA. Sus GPU impulsan desde vehículos autónomos hasta grandes modelos de lenguaje. Su enfoque innovador la ha posicionado a la vanguardia de la competencia en el dinámico mundo del hardware de IA.

chips clave de IA de NVIDIA

La gama de aceleradores de IA de NVIDIA incluye varios productos de alto rendimiento. La GPU A100 Tensor Core es fundamental para las empresas y ofrece hasta 312 TFLOPS de rendimiento en aprendizaje profundo con núcleos Tensor de tercera generación. La GPU H100, basada en la arquitectura Hopper, procesa modelos de lenguaje de gran tamaño 30 veces más rápido que las versiones anteriores.

La B300 (Blackwell Ultra) eleva el listón con 288 GB de memoria HBM3e por GPU y 1,100 petaflops de rendimiento de inferencia FP4 densa. Un único sistema GB300 NVL72 de escala de rack procesa 12 934 tokens por segundo por GPU.

Pruebas de rendimiento de NVIDIA

NVIDIA lidera las pruebas de rendimiento MLPerf, que miden el desempeño de la IA en la industria. La plataforma logró los tiempos de entrenamiento más rápidos en todas las pruebas de MLPerf Training v5.1, excepto en una. La compañía también ostenta todos los récords de rendimiento de inferencia MLPerf por GPU para centros de datos.

Los resultados financieros hablan por sí solos: una inversión de 5 millones de dólares en el sistema GB200 NVL72 puede generar aproximadamente 75 millones de dólares en ingresos por tokens, lo que ofrece un retorno de la inversión de 15 veces. 

alianzas estratégicas de NVIDIA

NVIDIA está forjando colaboraciones estratégicas en diversos sectores. OpenAI planea desplegar al menos 10 gigavatios de sistemas NVIDIA para su infraestructura de IA de próxima generación. NVIDIA invertirá hasta 100 mil millones de dólares en OpenAI por cada gigavatio desplegado.

La empresa colabora con gigantes de la automoción como General Motors en tecnologías de conducción autónoma e inteligencia artificial aplicada a la fabricación. Mediante la colaboración con T-Mobile y otros socios, NVIDIA crea la primera pila inalámbrica nativa de IA para 6G en Estados Unidos.

Hoja de ruta futura de NVIDIA

NVIDIA presenta una ambiciosa hoja de ruta con la arquitectura "Rubin" (llamada así en honor a la astrónoma Vera Rubin), cuyo lanzamiento está previsto para la segunda mitad de 2026. Esta plataforma de próxima generación ofrecerá 3.6 EFLOPS de computación FP4 densa, 3.3 veces más potente que la actual arquitectura Blackwell.

El procesador «Rubin Ultra», más potente, llegará en 2027 y ofrecerá 15 exaFLOPS de capacidad de inferencia FP4 gracias a su configuración NVL576. La interfaz NVLink7 proporciona una conectividad seis veces más rápida que su predecesor, con un rendimiento de 1.5 PB/s. NVIDIA planea lanzar la arquitectura «Feynman» en 2028, en honor al físico Richard Feynman.

AMD

AMD se erige como un fuerte competidor en la carrera por el hardware de IA. La compañía desafía el liderazgo de mercado de NVIDIA con su creciente línea de aceleradores y procesadores de alto rendimiento.

Chips clave de IA de AMD

El acelerador AMD Instinct MI300X, con sus 192 GB de memoria HBM3, es el pilar fundamental de la línea de chips de IA de la compañía. El nuevo MI325X ha cobrado protagonismo. Incorpora 288 GB de memoria HBM3E y ofrece un ancho de banda de memoria de 6 terabytes por segundo, 1.3 veces superior al de la competencia. Los procesadores AMD Ryzen AI ahora impulsan más de 250 plataformas de PC, llevando las capacidades de IA a portátiles y ordenadores de sobremesa.

Medidas de rendimiento de AMD

Las pruebas de campo demuestran que los aceleradores AMD Instinct MI300X ofrecen un buen rendimiento frente a sus competidores. Estos chips utilizan el software ROCm 6 para lograr un rendimiento de inferencia 1.3 veces superior en los modelos Meta Llama-3 70B. Además, ofrecen un rendimiento 1.2 veces superior en Mistral-7B. Hugging Face prueba diariamente 700 000 de sus modelos más populares con los aceleradores AMD Instinct MI300X para comprobar la compatibilidad.

colaboraciones estratégicas de AMD

AMD ha forjado sólidas alianzas con la industria. OpenAI ha firmado un importante acuerdo multianual de 6 gigavatios con AMD. El primer despliegue de un gigavatio comenzará en 2026. Oracle Cloud Infrastructure planea desplegar 50 000 GPU MI450. Microsoft Azure utiliza MI300X para los servicios de OpenAI. Dell Technologies (PowerEdge XE9680), Supermicro, Lenovo y HPE se han aliado con AMD. AMD creó una iniciativa de colaboración de 10 000 millones de dólares con HUMAIN para desarrollar infraestructura de IA en Arabia Saudita y Estados Unidos.

Hoja de ruta futura de AMD

AMD planea lanzar nuevos aceleradores de IA anualmente. El MI325X se lanzará en el cuarto trimestre de 2024. La serie MI350, basada en la arquitectura CDNA 4, se lanzará. Promete un rendimiento de inferencia de IA 35 veces más rápido que el MI300. Los sistemas MI400/MI450 "Helios" llegarán en 2026 con memoria HBM4 y un ancho de banda de 19.6 TB/s. La serie MI500 les seguirá en 2027. Para dispositivos personales, las próximas arquitecturas "Gorgon" (principios de 2026) y "Medusa" (principios de 2027) deberían ofrecer una capacidad de procesamiento de IA en el dispositivo hasta 10 veces superior a la de 2024.

Google (alfabeto)

Google fue pionera en el mercado de chips de IA personalizados con sus Unidades de Procesamiento Tensorial (TPU). La empresa desarrolló estos chips para uso interno en 2015 y los puso a disposición de sus clientes de la nube en 2018. Su inversión inicial ha dado sus frutos. El gigante tecnológico ahora controla el 58% del mercado de aceleradores de IA en la nube personalizados.

chips de IA de Google

La línea de TPU es fundamental para la estrategia de hardware de IA de Google. Estos circuitos integrados de aplicación específica se dedican al procesamiento de redes neuronales. El modelo insignia actual, Ironwood (TPU v7), ofrece 4,614 teraflops por chip. Su rendimiento es cuatro veces superior al de su predecesor, tanto para cargas de trabajo de entrenamiento como de inferencia.

La línea de productos incluye Trillium (TPU v6), la serie TPU v5 y Edge TPU, que gestiona la IA en el dispositivo. Google lanzó Axion, su primera CPU de propósito general, para gestionar cargas de trabajo que no son de IA.

Pruebas de rendimiento de Google

La potencia de cálculo de los pods TPU v4 de Google alcanza 1.1 exaflops con 4,096 chips trabajando conjuntamente. Cada chip TPU v4 procesa datos a 275 teraflops, con el respaldo de 32 GiB de memoria HBM2 y un ancho de banda de 1200 GB/s.

Esta potencia bruta se tradujo en éxitos reales. La supercomputadora de entrenamiento de aprendizaje automático de Google se impuso en seis de las ocho métricas de MLPerf. El sistema alcanzó un rendimiento máximo de más de 430 petaflops utilizando 4,096 chips TPU v3.

alianzas estratégicas de Google

Anthropic lidera las colaboraciones más importantes de Google. La compañía aspira a acceder a hasta un millón de chips TPU, un acuerdo valorado en decenas de miles de millones de dólares. Para 2026, este acuerdo proporcionará a Anthropic más de un gigavatio de capacidad informática.

Broadcom es un socio clave en la fabricación, con una inversión de más de 3 millones de dólares en el diseño de chips. TSMC se encarga del 92% de la fabricación.

Hoja de ruta futura de Google

El nuevo año verá la disponibilidad de Ironwood. Google planea ampliar simultáneamente su portafolio de hardware. El Proyecto Suncatcher, una constelación de satélites solares equipados con TPU, se lanzará en 2027.

La división de IA cuántica de la compañía crea Willow, un chip cuántico que completó un cálculo en menos de cinco minutos. Las supercomputadoras tradicionales necesitarían 10 septillones de años para la misma tarea. Aún queda mucho camino por recorrer, pero podemos aprovechar este progreso a medida que la industria de la IA se centra más en la inferencia que en el entrenamiento. La estrategia de hardware de Google parece estar preparada para el futuro.

Amazonas (AWS)

Amazon Web Services destaca en la industria del hardware de IA con sus aceleradores personalizados que equilibran rendimiento y coste para cargas de trabajo de IA.

chips de IA de AWS

AWS ofrece dos familias de chips de IA distintas: Trainium para entrenamiento e Inferentia para inferencia. El nuevo chip Trainium2 ofrece un rendimiento hasta cuatro veces superior al de las versiones anteriores. Las instancias Trn2 destacan en tareas de IA generativa con 16 chips Trainium2 conectados mediante NeuronLink. Estas instancias ofrecen un rendimiento excepcional con 20.8 petaflops de computación FP8 y 1.5 TB de memoria HBM3. El chip Inferentia2 impulsa las instancias Inf2 y proporciona 190 TFLOPS de rendimiento FP16 con 32 GB de HBM por chip. Esto representa un aumento de memoria de cuatro veces con respecto a la primera generación de Inferentia.

Pruebas de rendimiento de AWS

Trainium2 muestra una notable eficiencia en costes:

  • Los usuarios obtienen una relación precio-rendimiento entre un 30% y un 40% mejor que las instancias EC2 P5e basadas en GPU.
  • El sistema entrenó un modelo GPT-3 de 175 mil millones de parámetros hasta alcanzar la precisión objetivo en tan solo 4 minutos.
  • La plataforma se escaló a más de 1,024 chips para modelos de 13 mil millones de parámetros.

Inferentia2 alcanza un rendimiento hasta 4 veces superior y una latencia 10 veces menor que su versión anterior. Las instancias Inf1 ofrecen un rendimiento 2.3 veces superior con un coste por inferencia un 70 % menor en comparación con instancias EC2 similares.

Alianzas mutuamente beneficiosas de AWS

AWS firmó un acuerdo de 38 000 millones de dólares con OpenAI con una duración de siete años. Este acuerdo proporciona cientos de miles de GPU NVIDIA junto con decenas de millones de CPU. Nos centramos en aplicaciones internas de IA y en socios como Anthropic con nuestro silicio personalizado. El despliegue del «Proyecto Rainier» cuenta con 400 000 chips Trainium2 para Anthropic, lo que demuestra la enorme escala de estas colaboraciones.

Hoja de ruta futura de AWS

Trainium3 entrará en fase preliminar y se desplegará por completo a principios de 2026. Este chip de nueva generación promete duplicar el rendimiento de Trainium2 y una eficiencia energética un 40 % superior gracias al proceso de 3 nm de TSMC. AWS planea duplicar la capacidad de su centro de datos de 10 GW a 20 GW entre 2026 y 2027. Esto representa una inversión significativa en infraestructura de IA.

Microsoft

Microsoft entró en el mercado de aceleradores de IA con un enfoque único. La compañía desarrolló hardware especializado que funciona a la perfección con su infraestructura en la nube para maximizar el rendimiento.

chips de IA de Microsoft

El Proyecto Brainwave marcó el primer paso de Microsoft en la aceleración de la IA. Utiliza matrices de puertas programables en campo (FPGA) para crear una "Unidad de Procesamiento Neuronal flexible" que ofrece inferencia de IA inmediata con latencia ultrabaja. El sistema alcanzó un impresionante rendimiento de 39.5 teraflops en FPGA Intel Stratix 10 y procesa cada solicitud en menos de un milisegundo.

Azure Maia 100, el chip de IA insignia de Microsoft, se lanzó en noviembre de 2023. Este potente procesador ocupa una superficie de 820 mm² y está fabricado con el proceso de 5 nm de TSMC, que incorpora tecnología de empaquetado avanzada. El chip incluye 64 GB de memoria HBM2E con un ancho de banda de 1.8 terabytes por segundo. Microsoft también creó la CPU Azure Cobalt 100, un procesador basado en Arm que optimiza los procesos mediante una mayor eficiencia energética.

Pruebas de rendimiento de Microsoft

El Maia 100 gestiona hasta 4800 Gbps de ancho de banda con recolección total y reducción de dispersión. Admite 1200 Gbps de ancho de banda de comunicación total mediante un protocolo Ethernet personalizado. La unidad tensorial del chip es compatible con múltiples tipos de datos, incluido el formato MX de Microsoft, lanzado en 2023.

Las máquinas virtuales Azure NC H100 v5 de Microsoft mostraron un rendimiento un 46 % superior en las pruebas de rendimiento MLPerf en comparación con productos con GPU de 80 GB de memoria. Según el director de tecnología, Kevin Scott, la empresa tiene previsto utilizar sus propios chips en el futuro.

alianzas estratégicas de Microsoft

Microsoft inauguró su segundo centro de datos Fairwater AI en Atlanta en octubre de 2024. Estas instalaciones cuentan con sistemas NVIDIA GB200 NVL72 a escala de rack, capaces de escalar a cientos de miles de GPU Blackwell. Gracias a la colaboración con NVIDIA, Microsoft se convirtió en el primer proveedor de servicios en la nube en implementar NVIDIA GB300 NVL72 a gran escala.

La compañía se asocia con Qualcomm para impulsar la IA en Windows. Optimizan la NPU Hexagon con Windows ML para ejecutar modelos como Phi Silica de forma eficiente.

Hoja de ruta futura de Microsoft

La hoja de ruta original de chips incluía tres aceleradores: Braga, Braga-R y Clea. Estos chips tienen previsto su despliegue en centros de datos en 2026 y 2027, respectivamente. La producción en masa de Braga se ha pospuesto hasta 2026, lo que supone un retraso de al menos seis meses.

Fuentes internas afirman que el chip "no alcanzará el rendimiento del chip insignia Blackwell de NVIDIA". La variante Clea podría finalmente igualar las prestaciones de NVIDIA cuando llegue en 2027. Microsoft obtuvo la licencia de la propiedad intelectual del diseño del chip de OpenAI, lo que podría acelerar su desarrollo entre 12 y 18 meses.

Intel

Intel, el gigante más antiguo de la informática, aporta un enfoque centrado en la CPU al mercado del hardware de IA y aprovecha su dominio de la arquitectura x86 entre las tecnologías GPU emergentes.

chips de IA de Intel

Los procesadores Xeon 6 son la base del portafolio de IA de Intel y ofrecen un rendimiento de IA hasta un 50 % superior con un tercio menos de núcleos que AMD. Estos procesadores incorporan aceleración de IA en cada núcleo, lo que potencia la inferencia, el entrenamiento y los modelos GenAI de pequeño tamaño. Los procesadores Intel Core Ultra (Serie 2) admiten más de 300 funciones aceleradas por IA a través del programa de aceleración de IA para PC de Intel para la informática personal.

Intel ha presentado su GPU para centros de datos Crescent Island, diseñada para cargas de trabajo de inferencia de IA. El chip incorpora la microarquitectura Xe3P, 160 GB de memoria LPDDR5X y ofrece un rendimiento optimizado por vatio.

Pruebas de rendimiento de Intel

El procesador insignia de Intel, el Xeon 6980P de 128 núcleos, ofrece un rendimiento de IA excepcional en aplicaciones terrestres. Este procesador alcanza hasta 964.57 tokens por segundo para la inferencia LLM al ejecutar PyTorch 2.6.0 con optimización IPEX. Las mediciones de MLPerf v5.1 arrojaron resultados extraordinarios, con los procesadores Xeon 6 demostrando una mejora de rendimiento de 1.9 veces con respecto a las generaciones anteriores.

colaboraciones estratégicas de Intel

Intel ha establecido una alianza histórica con NVIDIA para desarrollar varias generaciones de productos personalizados para centros de datos y PC. Este acuerdo incluye una inversión de NVIDIA de 5 millones de dólares en acciones comunes de Intel. Intel Foundry ha obtenido un contrato para fabricar el procesador de IA de próxima generación Maia 2 de Microsoft utilizando su proceso de fabricación 18A.

Hoja de ruta futura de Intel

La nueva GPU para centros de datos Crescent Island llegará a las pruebas con clientes en la segunda mitad de 2026. Intel optó por discontinuar sus procesadores de redes neuronales Nervana después de adquirir Habana Labs por 2 mil millones de dólares para centrarse en su tecnología.

Apple

Apple integra capacidades neuronales en toda su arquitectura de chips mediante una estrategia de silicio única que la distingue en el desarrollo de hardware de IA.

chips de IA de Apple

El chip M5 de Apple representa un avance revolucionario en el procesamiento de IA. Cada núcleo de la GPU contiene aceleradores neuronales que ofrecen más de cuatro veces la potencia de cómputo máxima de la GPU para IA en comparación con el M4. El chip utiliza tecnología de 3 nm de tercera generación y cuenta con diez núcleos: cuatro para alto rendimiento y seis para eficiencia. El Neural Engine de 16 núcleos del chip trabaja con un ancho de banda de memoria unificada de 153 GB/s para procesar 133 billones de operaciones por segundo, doce veces más que la capacidad del M1.

Pruebas de rendimiento de Apple

El chip M5 estableció un nuevo récord con 4,263 puntos en las pruebas de un solo núcleo de Geekbench 6, superando a todos los procesadores de Mac y PC. En las pruebas multinúcleo, el chip obtuvo 17 862 puntos y funciona un 20 % más rápido que el M4. El rendimiento gráfico muestra una mejora del 30 % con respecto al M4, mientras que las aplicaciones con trazado de rayos se ejecutan un 45 % más rápido.

alianzas estratégicas de Apple

Apple planea invertir 600 mil millones de dólares en Estados Unidos hasta 2027. La compañía creará 20,000 nuevos empleos, centrándose en inteligencia artificial e ingeniería de silicio. Ha establecido colaboraciones estratégicas con Broadcom para crear el chip Baltra. Según informes, existe una alianza con Google para integrar los modelos de IA de Gemini en Siri.

Hoja de ruta futura de Apple

Apple lanzará la familia completa M5 (M5 Pro, M5 Max y Ultra) en 2026, y posiblemente también las variantes M6 posteriormente. La compañía planea un importante rediseño del MacBook Pro ese mismo año, que incluirá chips M6 Pro/Max, pantallas OLED y capacidad táctil.

Qualcomm

Qualcomm es un líder indiscutible en el mundo de la IA integrada en los dispositivos. Sus procesadores de bajo consumo energético permiten la inteligencia artificial en diversas plataformas.

chips de IA de Qualcomm

El portafolio de IA de la compañía destaca la NPU Hexagon integrada en los procesadores Snapdragon, que ofrece un rendimiento excepcional para aplicaciones móviles y de PC. El Snapdragon X Elite con NPU Hexagon gestiona las tareas de IA en el dispositivo, protegiendo la privacidad del usuario. Qualcomm presentó los aceleradores AI200 y AI250 para centros de datos, que ofrecen rendimiento a escala de rack con 768 GB de memoria LPDDR por tarjeta. Sus múltiples núcleos permiten la computación heterogénea mediante el motor de IA, lo que lo hace ideal para smartphones, portátiles y dispositivos IoT.

Pruebas de rendimiento de Qualcomm

La NPU del Snapdragon 8 Elite Gen 5 supera a su predecesor en un 37 % y procesa 220 tokens por segundo. El modelo insignia X2 Elite Extreme obtuvo 4,080 puntos en las pruebas de un solo núcleo de Geekbench 6.5 y alcanzó los 23 491 puntos en las evaluaciones multinúcleo, un 50 % más que las generaciones anteriores. Los procesadores Snapdragon X Elite cargan páginas web un 53 % más rápido que el AMD Ryzen AI 9 HX 370 en aplicaciones de uso real.

alianzas estratégicas de Qualcomm

La empresa estableció alianzas mutuamente beneficiosas con IBM para integrar watsonx.governance y con Microsoft para optimizar el aprendizaje automático de Windows para la NPU Hexagon. Qualcomm y Advantech colaboran en sistemas de IA en el borde que admiten de una a cuatro tarjetas aceleradoras PCIe de IA. Humain se convirtió en el primer cliente de los chips de IA para centros de datos de Qualcomm, con una implementación de 200 megavatios.

Hoja de ruta futura de Qualcomm

El AI200 llegará al mercado en 2026, mientras que el AI250, con computación cercana a la memoria, le seguirá en 2027 y promete un ancho de banda de memoria diez veces superior. Posteriormente, se lanzarán versiones anuales centradas en el rendimiento de inferencia y la eficiencia energética.

Sistemas Cerebras

Cerebras Systems transforma el hardware de IA mediante su potente Wafer-Scale Engine (WSE). Este innovador procesador desafía las arquitecturas de chips tradicionales con un enfoque de procesamiento totalmente diferente.

Chips de IA Cerebras

El procesador WSE-3 (Wafer-Scale Engine) de tercera generación lidera la línea de procesadores de Cerebras con 4 billones de transistores y 900 000 núcleos de IA en una sola oblea de silicio. Este procesador ocupa una superficie de 46 225 mm², lo que lo hace 57 veces más grande que la GPU H100 de NVIDIA. Ofrece una potencia de cómputo de IA de 125 petaflops. El sistema CS-3, que utiliza el WSE-3, admite memoria externa de hasta 1.2 petabytes y entrena modelos con hasta 24 billones de parámetros.

Pruebas de rendimiento de Cerebras

Los sistemas de la compañía han batido récords de rendimiento repetidamente. Su sistema de inferencia genera 969 tokens por segundo con Llama 3.1-405B, con una velocidad hasta 75 veces superior a las soluciones basadas en GPU de los hiperescaladores. El sistema supera a la GPU DGX B200 Blackwell de NVIDIA en 21 veces, con un consumo energético y un coste un tercio menor. Las aplicaciones científicas muestran resultados aún más impresionantes. El sistema alcanzó una aceleración de 130 veces con respecto a las GPU NVIDIA A100 en simulaciones de energía nuclear. Ejecutó dinámica molecular 748 veces más rápido que la supercomputadora Frontier.

colaboraciones estratégicas de Cerebras

Cerebras se unió a IBM y Meta como miembro fundador de la AI Alliance. Su colaboración con G42 generó un rendimiento de supercomputadora de IA de 8 exaFLOPs a través de Condor Galaxy 1 y 2. ZS integró los sistemas CS-3 en su plataforma MAX.AI mediante una nueva alianza. AlphaSense se asoció con Cerebras para potenciar sus capacidades de inteligencia de mercado. 

Hoja de ruta futura de Cerebras

Cerebras obtuvo 1.1 millones de dólares en financiación de Serie G para impulsar su tecnología a escala de obleas. La empresa pretende convertir los clústeres del sistema CS-3 en supercomputadoras de IA sin las complejidades de la computación distribuida. Entre las innovaciones futuras se podría incluir el apilamiento 3D para añadir memoria SRAM a las obleas, lo que ampliaría las capacidades de esta revolucionaria arquitectura de IA.

Groq

Groq está transformando el panorama de la IA con velocidades tan rápidas que sus competidores se esfuerzan por seguirle el ritmo.

chips de IA Groq

El motor de inferencia de la Unidad de Procesamiento del Lenguaje (LPU) es el producto estrella de Groq. Cada chip contiene 230 MB de SRAM y ofrece un ancho de banda de memoria integrada de hasta 80 TB/s. El chip demuestra una potencia excepcional con 750 TOP (INT8) y 188 TFLOP (FP16 a 900 MHz). El acelerador GroqCard™ tiene un precio de 19 948 $. El hardware utiliza únicamente SRAM, sin memoria integrada de alto ancho de banda. Esta decisión de diseño proporciona una velocidad asombrosa para cargas de trabajo específicas, pero presenta limitaciones de capacidad.

Estándares de rendimiento de Groq

Las pruebas realizadas por ArtificialAnalysis.ai demuestran las excepcionales capacidades de Groq. El sistema alcanza los 241 tokens por segundo, más del doble de la velocidad de otros proveedores. Las propias pruebas de Groq incluso superan esta cifra, llegando a los 300 tokens por segundo. El sistema responde con rapidez, generando 100 tokens de salida en tan solo 0.8 segundos. Genera más de 500 palabras en aproximadamente un segundo, mientras que las GPU de NVIDIA tardan casi 10 segundos en realizar la misma tarea.

colaboraciones estratégicas de Groq

IBM se ha asociado con Groq para integrar GroqCloud en Watsonx Orchestrate. Los clientes del sector sanitario de IBM ahora pueden analizar información en tiempo real. Groq también se ha aliado con Carahsoft para prestar servicios al sector público. La compañía inauguró un centro de datos europeo con Equinix en Helsinki, que proporciona infraestructura de IA de baja latencia.

Hoja de ruta futura de Groq

La compañía planea añadir más de doce nuevos centros de datos en 2026, basándose en las 12 instalaciones que ya creó. Groq opera en EE. UU., Canadá, Oriente Medio y Europa. Planean expandirse a Asia, con India como objetivo clave. Una reciente ronda de financiación recaudó 750 millones de dólares, con una valoración de 6.9 millones de dólares. La compañía ahora da soporte a más de dos millones de desarrolladores y empresas de la lista Fortune 500.

Meta

Meta deja de depender de chips de terceros creando potentes aceleradores de IA diseñados a medida para sus redes sociales.

Chips Meta AI

El acelerador insignia de entrenamiento e inferencia de Meta (MTIA v2) muestra capacidades extraordinarias: 354 TOPS de computación INT8 y 177 teraflops de precisión FP16. Estos chips están fabricados con tecnología de 5 nm, 256 MB de memoria integrada y un ancho de banda de memoria de 2.7 TB/s. Su rendimiento en computación densa es 3.5 veces superior al del MTIA v1 y mejora 7 veces el rendimiento en computación dispersa. Meta ha comenzado a probar su primer chip de entrenamiento de IA de desarrollo propio. Esta iniciativa podría reducir los 10 000 millones de dólares destinados a las GPU de Nvidia en 2023.

Meta benchmarks de rendimiento

Las pruebas de la plataforma muestran un rendimiento seis veces superior y una eficiencia energética 1.5 veces mayor en comparación con los sistemas de primera generación. Los chips funcionan correctamente con modelos de clasificación y recomendación de diversa complejidad. Los primeros resultados muestran una mejora del rendimiento de hasta tres veces en cuatro modelos de evaluación clave.

Meta alianzas

Meta ha establecido una alianza plurianual con Arm para mejorar la IA en múltiples capas de computación. Este esfuerzo conjunto optimiza el entorno de ejecución Executorch de PyTorch con Arm KleidiAI. La colaboración utiliza las plataformas Neoverse de Arm para los sistemas de recomendación de Meta que impulsan Facebook e Instagram.

Meta hoja de ruta futura

Meta planea lanzar su primer superclúster de IA multigigavatio "Prometheus" en 2026. La compañía invertirá "cientos de miles de millones" en infraestructura de IA. 

IBM

IBM crea una relación simbiótica entre los avances cuánticos y las innovaciones en el procesamiento clásico, equilibrando la informática empresarial tradicional con el desarrollo de hardware de IA de vanguardia.

chips de IA de IBM

El procesador Telum II lidera la estrategia de hardware de IA de IBM con ocho núcleos de alto rendimiento a 5.5 GHz. Este procesador ofrece un 40 % más de capacidad de caché integrada, alcanzando los 360 MB. El acelerador de IA integrado proporciona cuatro veces más capacidad de cómputo por chip que su predecesor. Otro componente potente, el acelerador IBM Spyre, cuenta con 32 núcleos de cómputo por chip y admite hasta 1 TB de memoria en ocho tarjetas.

Pruebas de rendimiento de IBM

Las capacidades de procesamiento de datos han mejorado significativamente con la Unidad de Aceleración de E/S de Telum II, que ofrece un aumento del 50 % en la densidad de E/S. Cada chip Spyre proporciona 300 TOPS de potencia de cómputo con un bajo consumo de energía de 75 W. Las pruebas demuestran que un sistema IBM Z equipado con 96 tarjetas Spyre puede alcanzar niveles de rendimiento de hasta 30 PetaOps.

alianzas mutuamente beneficiosas de IBM

AMD e IBM han ampliado su colaboración para que la GPU Instinct™ MI300X esté disponible en IBM Cloud. IBM también se ha asociado con Intel Foundry para fabricar chips avanzados.

Hoja de ruta futura de IBM

La hoja de ruta de IA de la empresa se extiende hasta 2030 y más allá. Los hitos clave incluyen transformadores multimodales para 2024, arquitecturas neuronales más allá de los transformadores y capacidades de razonamiento avanzado para 2026.

Tentorrent

Jim Keller, el legendario diseñador de chips, lidera Tenstorrent, que se distingue en el ámbito del hardware de IA por su enfoque de código abierto y su arquitectura RISC-V.

Chips de IA de Tenstorrent

Tenstorrent produce varios aceleradores de IA para diferentes cargas de trabajo. Su procesador Grayskull, lanzado en abril de 2020, cuenta con 120 núcleos Tensix que ofrecen un rendimiento de 332 TFLOPS en FP8. La serie Wormhole ofrece una relación calidad-precio excepcional: el modelo n150 (999 $) incluye 72 núcleos Tensix que generan 262 TFLOPS de computación FP8 con 12 GB de memoria GDDR6. El modelo n300 (1399 $) duplica estas especificaciones. Su avanzado chip Blackhole contiene 140 núcleos Tensix++ con un proceso de 6 nm y alcanza los 774 TFLOPS (FP8) con 16 núcleos de CPU RISC-V.

Pruebas de rendimiento de Tenstorrent

Grayskull alcanzó una eficiencia máxima de 1.56 TFLOPs/Watt durante las pruebas. Los chips mostraron un mejor rendimiento que los procesadores Intel Sapphire Rapids en métricas brutas, a pesar de estar dirigidos a segmentos de mercado diferentes.

colaboraciones estratégicas de Tenstorrent

La compañía estableció colaboraciones estratégicas con marcas globales como LG, Hyundai, AIREV y SingularityNET. Samsung Securities lideró su reciente ronda de financiación de 700 millones de dólares, en la que también participaron LG Electronics y Jeff Bezos, entre otros inversores, lo que valoró la compañía en 2.6 millones de dólares.

Hoja de ruta futura de Tenstorrent

La empresa colabora con TSMC, Samsung y Rapidus en procesos de fabricación de 2 nm. Su programa de formación en diseño de chips de IA en Japón tiene como objetivo ampliarlo a entre 40 y 60 participantes para 2026.

TSMC

TSMC impulsa la revolución de la IA desde la sombra. La compañía produce los chips que hacen posible la inteligencia artificial para casi todos los principales actores del sector.

Fabricación de chips de IA de TSMC

de TSMC Tecnología A16 Comenzará su producción en 2026. Esta tecnología avanzada incluye transistores de nanoláminas con innovadoras soluciones de riel de alimentación posterior. La compañía planea comenzar la producción del proceso N2 (clase de 2 nm). N2P y A16 (clase de 1.6 nm) le seguirán en 2026. Su tecnología System-on-Wafer (SSO) ofrece un rendimiento excepcional a nivel de oblea, que cumple con los futuros requisitos de IA para centros de datos de hiperescaladores.

Estándares de rendimiento de TSMC

El proceso A16 supera significativamente al proceso N2P. Ofrece una velocidad entre un 8 % y un 10 % superior con el mismo voltaje y reduce el consumo de energía entre un 15 % y un 20 % a la misma velocidad. Los productos para centros de datos experimentan una mejora de hasta 1.10 veces en la densidad de chips. El proceso A14 también muestra mejoras impresionantes. Ofrece hasta un 15 % más de velocidad o un 30 % menos de consumo de energía en comparación con el N2. La densidad lógica aumenta un 20 %.

colaboraciones estratégicas de TSMC

La planta de TSMC en Phoenix ha comenzado la producción en masa de chips para NVIDIA. Esto representa una importante colaboración entre estos gigantes de la IA. OpenAI completará su primer diseño de chip personalizado con TSMC utilizando tecnología de proceso de 3 nanómetros. La influencia de la compañía se extiende aún más, ya que también brinda soporte a los flujos de diseño de IA de Cadence para las tecnologías de proceso N3, N2 y A16.

Hoja de ruta futura de TSMC

La compañía lanzará A16 en 2026, seguido de A14 en 2028. Su sistema en oblea con tecnología CoWoS llegará en 2027. Esta innovación permitirá sistemas a nivel de oblea que igualarán la potencia informática de un servidor completo.

Broadcom

Broadcom se ha convertido en el elemento vital de la infraestructura de redes de IA gracias a sus aceleradores personalizados y soluciones de conmutación avanzadas.

chips de IA de Broadcom

La Thor Ultra lidera la línea de productos de Broadcom como la primera tarjeta de interfaz de red Ethernet de IA de 800G de la industria para centros de datos de IA a gran escala que admiten más de 100 000 XPU. La compañía produce la serie de switches Tomahawk 6, que ofrece un ancho de banda de 102.4 Tbps y se adapta a múltiples configuraciones. Su portafolio de redes incluye la Thor Ultra para conectividad, junto con las familias de switches Tomahawk y Jericho, que funcionan en conjunto como una plataforma integral. El director ejecutivo, Hock Tan, señala que estos productos de red representan solo una parte del potencial de mercado de IA de Broadcom, que se estima entre 60 000 y 90 000 millones de dólares para 2027.

Medidas de rendimiento de Broadcom

El equipo duplicó el ancho de banda de Thor Ultra en comparación con su predecesor. El Tomahawk 6 admite 512 puertos XPU a 200 Gbps o hasta 1,024 puertos a 100 Gbps. Los switches de alta capacidad de la compañía pueden conectar más de 100 000 XPU en una red de escalado horizontal de dos niveles. Broadcom utiliza sus avanzadas tecnologías SerDes y DSP para lograr estas especificaciones.

Alianzas mutuamente beneficiosas de Broadcom

OpenAI anunció una colaboración con Broadcom para el desarrollo de 10 gigavatios de aceleradores de IA personalizados. Antes de este anuncio, Broadcom ya había obtenido un pedido de 10 000 millones de dólares de un cliente anónimo para chips de IA personalizados. La colaboración de la compañía con Google en varias generaciones de procesadores Tensor ha generado miles de millones en ingresos.

Hoja de ruta futura de Broadcom

Broadcom prevé un crecimiento sustancial de sus ingresos por IA para el año fiscal 2026. Sus ingresos por semiconductores para IA alcanzaron los 12.2 millones de dólares en el año fiscal 2024. La compañía está perfeccionando su tecnología de empaquetado 3D para mejorar el rendimiento. Los primeros chips diseñados con OpenAI fruto de esta colaboración llegarán en el segundo semestre de 2026.

Conclusión

El mercado de hardware para IA ha cambiado drásticamente desde 2023. Lo que comenzó como una industria de 67 mil millones de dólares ahora se espera que alcance los 1.3 billones de dólares para 2032. Estos 15 gigantes tecnológicos siguen superando los límites de rendimiento con cada nueva generación de chips. NVIDIA se mantiene a la vanguardia con su innovadora arquitectura Blackwell. AMD, Google y otras empresas han reducido considerablemente la brecha gracias a sus propios avances.

Las colaboraciones estratégicas se han vuelto cruciales en esta carrera de alto riesgo. Empresas como OpenAI ahora trabajan simultáneamente con múltiples proveedores de hardware. Firman acuerdos con NVIDIA, AMD y Broadcom para despliegues de computación masiva medidos en gigavatios, en lugar de chips individuales. Esto anticipa un futuro de la IA donde la potencia computacional se medirá como un servicio público.

Las mejoras de rendimiento son asombrosas. Los avances iniciales se han traducido en incrementos de rendimiento de entre 2 y 4 veces entre generaciones de chips. Cada empresa sigue su propio camino. Cerebras desarrolla enormes motores a escala de oblea. Groq se centra en la inferencia ultrarrápida. Los actores tradicionales como Intel y Qualcomm adaptan sus arquitecturas para cargas de trabajo de IA.

El futuro se presenta prometedor. La mayoría de los grandes actores planean lanzar nuevas arquitecturas en un plazo de 12 a 18 meses que prometen avances aún mayores. Algunas empresas se fusionarán o desaparecerán a medida que el mercado madure. Otras podrían dar un salto cualitativo con tecnologías revolucionarias.

Las empresas y los consumidores que se benefician de esta ola de rápidos avances necesitarán actualizar su hardware con mayor frecuencia. BigDataSupply ayuda a que estas actualizaciones sean más ecológicas y asequibles al permitirle... Vende tus tarjetas gráficas usadas, CPUs, SSD, RAM y otros tipos de equipamiento ITEsto ayuda a recuperar los costes mientras se realiza la transición a un hardware de IA más nuevo y con mayores capacidades.

El panorama del hardware de IA en 2026 será muy diferente al actual. Para triunfar, se necesita algo más que rendimiento bruto. La eficiencia energética, los ecosistemas de software y la capacidad de fabricación serán fundamentales. La política global de la fabricación de chips también influirá en el desarrollo de este mercado.

Esta revolución del hardware transformará la forma en que las industrias implementan y utilizan la IA. Estos chips permiten capacidades que parecían imposibles hace unos años, desde la inferencia de modelos de lenguaje en tiempo real a gran escala hasta la visión artificial avanzada. Crearán categorías de productos y servicios completamente nuevas.

cruzar