15 toonaangevende AI-hardwarebedrijven die de markt in 2026 domineren

Bedrijven die AI-hardware ontwikkelen, transformeren de techindustrie in een razend tempo. NVIDIA heeft een lange weg afgelegd sinds de begindagen met grafische kaarten. Het bedrijf bereikte een waarde van 4 biljoen dollar, waarmee het een van de meest waardevolle bedrijven ter wereld is.

De cijfers in deze sector zijn duizelingwekkend. Bloomberg Intelligence voorspelt dat de uitgaven aan generatieve AI zullen stijgen van $ 67 miljard in 2023 tot $ 1.3 biljoen in 2032. Price Waterhouse Coopers voorspelt dat het economische effect van generatieve AI in 2030 $ 15.7 biljoen zal bedragen. Deze enorme cijfers verklaren waarom techgiganten verwikkeld zijn in een intense strijd om marktleiderschap.

Een ooit gespecialiseerde markt is uitgegroeid tot een van de felste technologische strijdtonelen. Toonaangevende fabrikanten van AI-chips blijven hun mogelijkheden uitbreiden - NVIDIA's Blackwell GPU onderscheidt zich door 2.5 keer meer snelheid en 25 keer betere energie-efficiëntie dan zijn voorgangers.

De concurrentie neemt toe doordat grote bedrijven nu hun eigen chips ontwerpen in plaats van afhankelijk te zijn van externe leveranciers. Taiwan Semiconductor heeft de productie van geavanceerde 3-nanometer- en 5-nm-chips opgevoerd om aan de toenemende vraag te voldoen.

In dit artikel leest u over de 15 toonaangevende AI-hardwarebedrijven die momenteel de markt domineren, hun beste producten en hun rol bij het vormgeven van de toekomst van computing.

NVIDIA

NVIDIA is toonaangevend in de wereld van de productie van AI-chips. Hun GPU's zijn de drijvende kracht achter alles, van autonome voertuigen tot grootschalige taalmodellen. De innovatieve aanpak van het bedrijf heeft het een voorsprong gegeven op concurrenten in de voortdurend veranderende wereld van AI-hardware.

NVIDIA-sleutel AI-chips

NVIDIA's AI-acceleratorassortiment omvat diverse krachtige producten. De A100 Tensor Core GPU vormt de levensader voor bedrijven en levert tot 312 TFLOPS aan deep learning-prestaties met derde-generatie Tensor Cores. De H100 GPU draait op de Hopper-architectuur en verwerkt grote taalmodellen 30 keer sneller dan eerdere versies.

De B300 (Blackwell Ultra) legt de lat hoger met 288 GB HBM3e-geheugen per GPU en 1,100 petaflops aan compacte FP4-inferentieprestaties. Eén GB300 NVL72 rack-scale systeem verwerkt 12,934 tokens per seconde per GPU.

NVIDIA-prestatiebenchmarks

NVIDIA is toonaangevend in MLPerf-benchmarks, die AI-prestaties in de branche meten. Het platform behaalde de snelste trainingstijden in alle MLPerf Training v5.1-benchmarks, op één na. Het bedrijf is tevens houder van alle MLPerf Inference-prestatierecords per GPU voor datacenters.

De financiële resultaten spreken boekdelen: een investering van $ 5 miljoen in het GB200 NVL72-systeem kan ongeveer $ 75 miljoen aan tokeninkomsten genereren, wat een rendement van 15x oplevert. 

Strategische partnerschappen van NVIDIA

NVIDIA bouwt strategische samenwerkingen op in verschillende sectoren. OpenAI is van plan om ten minste 10 gigawatt aan NVIDIA-systemen in te zetten voor zijn volgende-generatie AI-infrastructuur. NVIDIA zal tot $ 100 miljard investeren in OpenAI, voor elke gigawatt die wordt ingezet.

Het bedrijf werkt samen met autogiganten zoals General Motors voor zelfrijdende technologieën en kunstmatige intelligentie (AI). Door samenwerking met T-Mobile en andere partners creëert NVIDIA Amerika's eerste AI-native draadloze stack voor 6G.

NVIDIA toekomstplan

NVIDIA toont een ambitieuze roadmap met de "Rubin"-architectuur (vernoemd naar astronoom Vera Rubin), die in de tweede helft van 2026 gelanceerd zal worden. Dit platform van de volgende generatie zal 3.6 EFLOPS aan dichte FP4-rekenkracht leveren, 3.3 keer krachtiger dan de huidige Blackwell-architectuur.

De krachtigere "Rubin Ultra" verschijnt in 2027 en biedt 15 ExaFLOPS FP4-inferentieverwerking via de NVL576-configuratie. De NVLink7-interface biedt 6x snellere connectiviteit dan zijn voorganger, met een doorvoersnelheid van 1.5 PB/s. NVIDIA plant een "Feynman"-architectuur voor 2028, vernoemd naar natuurkundige Richard Feynman.

AMD

AMD is een sterke concurrent in de AI-hardwarerace. Het bedrijf neemt de marktleiderspositie van NVIDIA over met zijn groeiende aanbod van krachtige accelerators en processors.

AMD-sleutel AI-chips

De AMD Instinct MI300X-accelerator is met zijn 192 GB HBM3-geheugen de levensader van de AI-chipreeks van het bedrijf. De nieuwere MI325X is in de schijnwerpers komen te staan. Deze wordt geleverd met 288 GB HBM3E-geheugen en levert een geheugenbandbreedte van 6 terabyte per seconde, 1.3x beter dan die van concurrenten. De Ryzen AI-processors van AMD draaien nu op meer dan 250 pc-platforms. Deze processors brengen AI-mogelijkheden naar laptops en desktops.

AMD-prestatiemetingen

Grondtesten tonen aan dat AMD Instinct MI300X-versnellers goed presteren in vergelijking met concurrenten. De chips gebruiken ROCm 6-software om 1.3x betere inferentieprestaties te behalen op Meta Llama-3 70B-modellen. Ze leveren ook een 1.2x hogere doorvoersnelheid op Mistral-7B. Hugging Face test elke nacht 700,000 van hun populaire modellen op AMD Instinct MI300X-versnellers om de compatibiliteit te controleren.

Strategische samenwerkingen van AMD

AMD heeft sterke partnerschappen in de sector opgebouwd. OpenAI heeft een enorme meerjarige overeenkomst van 6 gigawatt met AMD gesloten. De eerste gigawatt-implementatie start in 2026. Oracle Cloud Infrastructure is van plan 50,000 MI450 GPU's te implementeren. Microsoft Azure gebruikt MI300X voor OpenAI-services. Dell Technologies (PowerEdge XE9680), Supermicro, Lenovo en HPE hebben hun krachten gebundeld met AMD. AMD is een samenwerkingsverband van $ 10 miljard aangegaan met HUMAIN om AI-infrastructuur te bouwen in Saoedi-Arabië en de Verenigde Staten.

Toekomstige routekaart van AMD

AMD is van plan om jaarlijks nieuwe AI-acceleratoren uit te brengen. De MI325X komt in het vierde kwartaal van 2024 op de markt. De MI350-serie, gebaseerd op de CDNA 4-architectuur, zal worden gelanceerd. Deze belooft 35 keer snellere AI-inferentieprestaties dan de MI300. De MI400/MI450 "Helios"-systemen verschijnen in 2026 met HBM4-geheugen dat een bandbreedte van 19.6 TB/s biedt. De MI500-serie volgt in 2027. Voor pc's zouden de aankomende "Gorgon"- (begin 2026) en "Medusa"-architecturen (begin 2027) tot 10 keer betere AI-rekenkracht op het apparaat moeten leveren in vergelijking met de niveaus van 2024.

Google (alfabet)

Google was een pionier op de markt voor AI-chips op maat met zijn Tensor Processing Units (TPU's). Het bedrijf ontwikkelde deze chips in 2015 voor intern gebruik en maakte ze in 2018 toegankelijk voor cloudklanten. Hun vroege investering heeft zich goed uitbetaald. De techgigant nu beheert 58% van de markt voor op maat gemaakte AI-accelerators in de cloud.

Google AI-chips

De TPU-lijn vormt de levensader van Googles AI-hardwarestrategie. Deze applicatiespecifieke geïntegreerde schakelingen zijn specifiek gericht op neurale netwerkverwerking. Het huidige vlaggenschipmodel, Ironwood (TPU v7), levert 4,614 teraflops per chip. Hij is 4x sneller dan zijn voorganger, zowel voor training als voor inferentie.

De productlijn omvat Trillium (TPU v6), de TPU v5-serie en de Edge TPU die AI op het apparaat verwerkt. Google lanceerde Axion, zijn eerste universele CPU, om niet-AI-workloads te beheren.

Prestatiebenchmarks van Google

De rekenkracht van Google's TPU v4-pods bereikt 1.1 exaflops met 4,096 samenwerkende chips. Elke TPU v4-chip verwerkt data met 275 teraflops, ondersteund door 32 GiB HBM2-geheugen en een bandbreedte van 1200 GBps.

Deze brute kracht vertaalde zich in succes in de praktijk. Google's supercomputer voor machine learning (ML) behaalde de overwinning in zes van de acht MLPerf-metingen. Het systeem behaalde meer dan 430 petaflops aan piekprestaties met behulp van 4,096 TPU v3-chips.

Strategische partnerschappen van Google

Anthropic leidt de belangrijkste samenwerkingen van Google. Het bedrijf wil toegang krijgen tot maximaal een miljoen TPU-chips, een deal ter waarde van tientallen miljarden dollars. Tegen 2026 zal deze overeenkomst Anthropic meer dan een gigawatt aan rekencapaciteit opleveren.

Broadcom fungeert als een belangrijke productiepartner en investeert meer dan 3 miljard dollar in chipontwerp. TSMC verzorgt 92% van de daadwerkelijke productie.

Toekomstige routekaart van Google

In het nieuwe jaar komt Ironwood beschikbaar. Google is tegelijkertijd van plan zijn hardwareportfolio uit te breiden. Project Suncatcher, een constellatie van op zonne-energie werkende satellieten uitgerust met TPU's, zal naar verwachting in 2027 gelanceerd worden.

De Quantum AI-divisie van het bedrijf ontwikkelt Willow, een quantumchip die een berekening in minder dan vijf minuten voltooit. Traditionele supercomputers zouden 10 septiljoen jaar nodig hebben voor dezelfde taak. We hebben nog een lange weg te gaan, maar we kunnen voortbouwen op deze vooruitgang, aangezien de AI-industrie zich meer richt op inferentie dan op training. De hardwarestrategie van Google lijkt klaar voor wat ons te wachten staat.

Amazon (AWS)

Amazon Web Services onderscheidt zich in de AI-hardwarebranche met zijn speciaal gebouwde accelerators die prestaties en kosten voor AI-workloads in evenwicht brengen.

AWS AI-chips

AWS introduceert twee verschillende AI-chipfamilies: Trainium voor training en Inferentia voor inferentieworkloads. De nieuwste Trainium2-chip presteert tot 4x beter dan eerdere versies. Trn2-instances blinken uit in generatieve AI-taken met 16 Trainium2-chips die via NeuronLink met elkaar verbonden zijn. Deze instances leveren een enorme prestatie met 20.8 petaflops FP8-rekenkracht en 1.5 TB HBM3-geheugen. De Inferentia2-chip voedt Inf2-instances en levert 190 TFLOPS FP16-prestaties met 32 ​​GB HBM per chip. Dit is een geheugenboost van 4x ten opzichte van de eerste generatie Inferentia.

AWS-prestatiebenchmarks

Trainium2 toont een opmerkelijke kostenefficiëntie:

  • Gebruikers krijgen een 30-40% betere prijs-prestatieverhouding dan GPU-gebaseerde EC2 P5e-instanties
  • Het systeem trainde een GPT-3-model met 175B-parameters om de nauwkeurigheid in slechts 4 minuten te bereiken
  • Het platform is opgeschaald naar meer dan 1,024 chips voor 13B parametermodellen

Inferentia2 behaalt een tot 4x hogere doorvoer en 10x lagere latentie dan de vorige versie. Inf1-instanties leveren een 2.3x hogere doorvoer tegen 70% lagere kosten per inferentie in vergelijking met vergelijkbare EC2-instanties.

AWS wederzijds voordelige allianties

AWS tekende een overeenkomst van $ 38 miljard met OpenAI voor een periode van zeven jaar. Deze deal levert honderdduizenden NVIDIA GPU's op, gecombineerd met tientallen miljoenen CPU's. We hebben ons gericht op interne AI-toepassingen en partners zoals Anthropic met onze eigen chip. De implementatie van "Project Rainier" omvat 400,000 Trainium2-chips voor Anthropic, wat de enorme omvang van deze samenwerkingen illustreert.

AWS toekomstplan

Trainium3 zal eerst als preview beschikbaar komen, gevolgd door een volledige uitrol begin 2026. Deze chip van de volgende generatie belooft een verdubbeling van de prestaties van Trainium2 en een 40% betere energie-efficiëntie dankzij het 3nm-proces van TSMC. AWS is van plan om zijn datacentercapaciteit tussen 2026 en 2027 te verdubbelen van 10 GW naar 20 GW. Dit vertegenwoordigt een aanzienlijke investering in AI-infrastructuur.

Microsoft

Microsoft betrad de markt voor AI-accelerators met een unieke aanpak. Het bedrijf ontwikkelde gespecialiseerde hardware die naadloos samenwerkt met de cloudinfrastructuur om de prestaties te maximaliseren.

Microsoft AI-chips

Project Brainwave markeerde Microsofts eerste stap in de AI-versnelling. Het maakt gebruik van field-programmable gate arrays (FPGA's) om een ​​"soft Neural Processing Unit" te creëren die direct AI-inferentie levert met een extreem lage latentie. Het systeem behaalde een indrukwekkende snelheid van 39.5 teraflops op Intel Stratix 10 FPGA's en verwerkt elk verzoek in minder dan een milliseconde.

Azure Maia 100, Microsofts vlaggenschip op het gebied van AI-chips, werd gelanceerd in november 2023. Deze krachtige processor beslaat 820 mm² dankzij TSMC's 5nm-proces met geavanceerde packagingtechnologie. De chip beschikt over 64 GB HBM2E-geheugen met een bandbreedte van 1.8 terabyte per seconde. Microsoft ontwikkelde ook de Azure Cobalt 100 CPU, een op Arm gebaseerde processor die processen stroomlijnt door middel van energie-efficiëntie.

Microsoft-prestatiebenchmarks

De Maia 100 verwerkt tot 4800 Gbps all-gather en scatter-reduced bandbreedte. Hij ondersteunt 1200 Gbps all-to-all bandbreedte via een speciaal Ethernet-protocol. De tensor unit van de chip werkt met meerdere datatypen, waaronder het MX-formaat van Microsoft, dat in 2023 werd gelanceerd.

De Azure NC H100 v5-VM's van Microsoft presteerden 46% beter in MLPerf-benchmarks vergeleken met producten met GPU's met 80 GB geheugen. Volgens CTO Kevin Scott wil het bedrijf in de toekomst overstappen op eigen chips.

Strategische partnerschappen van Microsoft

Microsoft opende in oktober 2024 zijn tweede Fairwater AI-datacenter in Atlanta. Het datacenter beschikt over NVIDIA GB200 NVL72 rackscale-systemen die schaalbaar zijn tot honderdduizenden Blackwell GPU's. Door samenwerking met NVIDIA werd Microsoft de eerste cloudprovider die NVIDIA GB300 NVL72 op grote schaal implementeerde.

Het bedrijf werkt samen met Qualcomm om AI op Windows te verbeteren. Ze optimaliseren de Hexagon NPU met Windows ML om modellen zoals Phi Silica efficiënt te laten draaien.

Microsoft's toekomstige routekaart

De oorspronkelijke roadmap voor chips omvatte drie accelerators: Braga, Braga-R en Clea. Deze chips waren bedoeld voor implementatie in datacenters, respectievelijk in 2026 en 2027. De massaproductie van Braga is verschoven naar 2026, een vertraging van minstens zes maanden.

Interne bronnen zeggen dat de chip "ver achter zal blijven bij de prestaties van NVIDIA's vlaggenschip Blackwell-chip". De Clea-variant zou eindelijk kunnen tippen aan het aanbod van NVIDIA wanneer deze in 2027 op de markt komt. Microsoft heeft een licentie verkregen voor OpenAI's chipontwerp-IP, wat de ontwikkeling met 12 tot 18 maanden zou kunnen versnellen.

Intel

Intel, de oudste gigant in de computerindustrie, introduceert een CPU-gerichte aanpak op de AI-hardwaremarkt en maakt gebruik van zijn x86-dominantie onder opkomende GPU-technologieën.

Intel AI-chips

De Xeon 6-processors vormen de kern van Intels AI-portfolio en leveren tot 50% hogere AI-prestaties met een derde minder cores dan AMD. Deze processors zijn voorzien van ingebouwde AI-acceleratie in elke core, wat inferentie, training en kleine GenAI-modellen mogelijk maakt. Intel Core Ultra-processors (Serie 2) ondersteunen meer dan 300 AI-versnelde functies via Intels AI PC Acceleration Program voor personal computing.

Intel heeft zijn Crescent Island datacenter GPU onthuld, gericht op AI-inferentieworkloads. De chip is voorzien van een Xe3P-microarchitectuur, 160 GB LPDDR5X-geheugen en levert geoptimaliseerde prestaties per watt.

Intel-prestatiebenchmarks

Intels vlaggenschip, de Xeon 6980P-processor met 128 cores, laat opmerkelijke AI-prestaties zien in grondtoepassingen. De processor behaalt tot 964.57 tokens per seconde voor LLM-inferentie bij gebruik van PyTorch 2.6.0 met IPEX-optimalisatie. MLPerf v5.1-metingen lieten uitzonderlijke resultaten zien, waarbij Xeon 6-processors een 1.9x hogere prestatie lieten zien dan eerdere generaties.

Strategische samenwerkingen van Intel

Intel heeft een historische samenwerking met NVIDIA gesloten om meerdere generaties datacenter- en pc-producten op maat te ontwikkelen. Deze overeenkomst omvat de investering van $ 5 miljard van NVIDIA in gewone aandelen van Intel. Intel Foundry heeft een contract binnengehaald voor de bouw van Microsofts Maia 2 next-gen AI-processor met behulp van het 18A-fabricageproces.

Toekomstige routekaart van Intel

De nieuwe GPU van het datacenter op Crescent Island zal in de tweede helft van 2026 beschikbaar zijn voor klanten. Intel besloot te stoppen met de productie van zijn Nervana neural network-processors nadat het Habana Labs voor 2 miljard dollar had overgenomen om zich te kunnen richten op hun technologie.

Appel

Apple integreert neurale mogelijkheden in zijn chiparchitectuur via een unieke siliciumstrategie. Daarmee onderscheidt het bedrijf zich in de ontwikkeling van AI-hardware.

Apple AI-chips

De M5-chip van Apple vertegenwoordigt een doorbraak in AI-verwerking. Elke GPU-core bevat Neural Accelerators die meer dan 4x de piek-GPU-rekenkracht voor AI leveren in vergelijking met de M4. De chip maakt gebruik van 3nm-technologie van de derde generatie en beschikt over tien cores – vier voor prestaties en zes voor efficiëntie. De 16-core Neural Engine van de chip werkt met een gecombineerde geheugenbandbreedte van 153 GB/s om 133 biljoen bewerkingen per seconde te verwerken, twaalf keer meer dan wat de M1 aankon.

Prestatiebenchmarks van Apple

De M5-chip behaalde een nieuw record met 4,263 punten in de single-core tests van Geekbench 6, waarmee hij alle Mac- en pc-processors overtrof. De chip scoorde 17,862 punten in multi-core tests en is 20% sneller dan de M4. De grafische prestaties laten een verbetering van 30% zien ten opzichte van de M4, terwijl raytracing-applicaties 45% sneller werken.

Strategische partnerschappen van Apple

Apple is van plan om tot 2027 $ 600 miljard in Amerika te investeren. Het bedrijf zal 20,000 nieuwe banen creëren, met een focus op AI en siliciumtechnologie. Het bedrijf is een strategische samenwerking aangegaan met Broadcom om de Baltra-chip te ontwikkelen. Er wordt gesproken over een samenwerking met Google om Gemini AI-modellen te integreren met Siri.

Toekomstige routekaart van Apple

Apple introduceert de complete M5-familie (M5 Pro, M5 Max, Ultra) in 2026, mogelijk gevolgd door M6-varianten. Het bedrijf plant dat jaar een grote redesign van de MacBook Pro met M6 Pro/Max-chips, OLED-schermen en touchscreen-mogelijkheden.

Qualcomm

De wereld van on-device AI heeft een sterke leider: Qualcomm. Hun energiezuinige processors maken kunstmatige intelligentie mogelijk op diverse platforms.

Qualcomm AI-chips

Het AI-portfolio van het bedrijf toont de Hexagon NPU in Snapdragon-processors, die uitzonderlijke prestaties levert voor mobiele en pc-applicaties. De Snapdragon X Elite met Hexagon NPU verwerkt AI-taken op het apparaat en beschermt tegelijkertijd de privacy van de gebruiker. Qualcomm onthulde de AI200- en AI250-accelerators voor datacenters, die rack-scale prestaties bieden met 768 GB LPDDR-geheugen per kaart. Meerdere cores ondersteunen heterogene computing via de AI Engine, waardoor deze ideaal is voor smartphones, laptops en IoT-apparaten.

Prestatiebenchmarks van Qualcomm

De NPU van de Snapdragon 8 Elite Gen 5 overtreft die van zijn voorganger met 37% en verwerkt 220 tokens per seconde. Het vlaggenschip, de X2 Elite Extreme, scoorde 4,080 punten in Geekbench 6.5 single-core tests en 23,491 punten in multi-core evaluaties, 50% hoger dan eerdere generaties. Snapdragon X Elite-processors laden webpagina's 53% sneller dan de AMD Ryzen AI 9 HX 370 in real-life applicaties.

Strategische partnerschappen van Qualcomm

Het bedrijf sloot een wederzijds voordelige alliantie met IBM om watsonx.governance te integreren en met Microsoft om Windows ML voor de Hexagon NPU te optimaliseren. Qualcomm en Advantech werken samen aan edge AI-systemen die één tot vier AI PCIE-acceleratorkaarten ondersteunen. Humain werd de eerste klant voor Qualcomms datacenter AI-chips met een capaciteit van 200 megawatt.

Toekomstige routekaart van Qualcomm

De AI200 zal in 2026 op de markt verschijnen, terwijl de AI250 met near-memory computing in 2027 volgt en een 10x hogere geheugenbandbreedte belooft. Jaarlijkse releases zullen volgen met een focus op inferentieprestaties en energie-efficiëntie.

Cerebras-systemen

Cerebras Systems transformeert AI-hardware met zijn enorme Wafer-Scale Engine (WSE). Deze innovatieve processor daagt traditionele chiparchitecturen uit met een compleet andere verwerkingsaanpak.

Cerebras AI-chips

De derde generatie Wafer-Scale Engine (WSE-3) voert Cerebras' processorreeks aan met 4 biljoen transistors en 900,000 AI-cores op één siliciumwafer. De processor beslaat 46,225 mm², waarmee hij 57 keer groter is dan NVIDIA's H100 GPU. Hij levert 125 petaflops aan AI-rekenkracht. Het door WSE-3 aangestuurde CS-3-systeem ondersteunt extern geheugen tot 1.2 petabyte en traint modellen met maximaal 24 biljoen parameters.

Cerebras-prestatiebenchmarks

De systemen van het bedrijf hebben herhaaldelijk prestatierecords gebroken. Hun inferentiesysteem genereert 969 tokens per seconde met Llama 3.1-405B, wat tot 75 keer sneller is dan GPU-gebaseerde oplossingen van hyperscalers. Het systeem presteert 21 keer beter dan NVIDIA's DGX B200 Blackwell GPU, terwijl het 1/3 minder kosten en energie verbruikt. Wetenschappelijke toepassingen laten nog indrukwekkendere resultaten zien. Het systeem behaalde een 130 keer hogere snelheid dan NVIDIA A100 GPU's in kernenergiesimulaties. Moleculaire dynamica werd 748 keer sneller uitgevoerd dan de Frontier supercomputer.

Strategische samenwerkingen van Cerebras

Cerebras bundelde de krachten met IBM en Meta als oprichter van de AI Alliance. De samenwerking met G42 leverde 8 exaFLOP's aan AI-supercomputerprestaties op via Condor Galaxy 1 en 2. ZS integreerde CS-3-systemen in hun MAX.AI-platform via een nieuwe samenwerking. AlphaSense werkte samen met Cerebras om hun marktinzicht te vergroten. 

Cerebras toekomstige routekaart

Cerebras heeft $ 1.1 miljard aan Series G-financiering binnengehaald om hun technologie op waferschaal verder te ontwikkelen. Het bedrijf wil CS-3-systeemclusters opschalen naar AI-supercomputers zonder de complexiteit van gedistribueerde computing. Toekomstige innovaties kunnen 3D-stacking omvatten om SRAM-geheugen aan wafers toe te voegen, wat de mogelijkheden van deze revolutionaire AI-architectuur zou kunnen uitbreiden.

Groq

Groq verandert de AI-wereld met zulke hoge snelheden dat concurrenten haast hebben om bij te blijven.

Groq AI-chips

De Language Processing Unit (LPU) Inference Engine is Groq's belangrijkste product. Elke chip bevat 230 MB SRAM en levert een on-chip geheugenbandbreedte tot 80 TB/s. De chip toont een opmerkelijke kracht met 750 TOP's (INT8) en 188 TFLOP's (FP16 bij 900 MHz). De GroqCard™ Accelerator is verkrijgbaar voor $ 19,948. De hardware gebruikt alleen SRAM zonder on-chip geheugen met hoge bandbreedte. Deze ontwerpkeuze biedt een verbluffende snelheid voor specifieke workloads, maar kent ook capaciteitsbeperkingen.

Groq-prestatienormen

Tests van ArtificialAnalysis.ai tonen Groqs uitzonderlijke capaciteiten aan. Het systeem haalt 241 tokens per seconde – meer dan twee keer zo snel als andere aanbieders. Groqs eigen tests gaan zelfs nog verder, tot 300 tokens per seconde. Het systeem reageert snel door 100 output-tokens te leveren in slechts 0.8 seconde. Het systeem genereert meer dan 500 woorden in ongeveer één seconde, terwijl NVIDIA GPU's bijna 10 seconden nodig hebben voor dezelfde taak.

Strategische samenwerkingen van Groq

IBM is een samenwerking aangegaan met Groq om GroqCloud te integreren in WatsonX Orchestrate. Klanten in de gezondheidszorg bij IBM kunnen nu live informatie analyseren. Groq heeft ook de handen ineengeslagen met Carahsoft om de publieke sector te bedienen. Het bedrijf opende een Europees datacenter met Equinix in Helsinki, dat AI-infrastructuur met lage latentie biedt.

Groq toekomstplan

Het bedrijf is van plan om in 2026 meer dan twaalf nieuwe datacenters toe te voegen, bovenop de twaalf bestaande faciliteiten. Groq is actief in de VS, Canada, het Midden-Oosten en Europa. Ze zijn van plan uit te breiden naar Azië, met India als belangrijke doelmarkt. Een recente financieringsronde leverde $750 miljoen op, waarmee de waardering van het bedrijf op $6.9 miljard uitkwam. Het bedrijf ondersteunt momenteel meer dan twee miljoen ontwikkelaars en Fortune 500-bedrijven.

meta

Meta stapt af van de afhankelijkheid van chips van derden en creëert krachtige AI-versnellers die speciaal zijn ontworpen voor de sociale netwerken.

Meta AI-chips

Het vlaggenschip Meta Training and Inference Accelerator (MTIA v2) toont opmerkelijke mogelijkheden: 354 TOPS aan INT8-berekeningen en 177 teraflops aan FP16-nauwkeurigheid. Deze chips zijn gebouwd op 5nm-nodes met 256 MB on-chip geheugen en een geheugenbandbreedte van 2.7 TB/s. Ze presteren 3.5x beter in dense computing dan MTIA v1 en bereiken 7x betere prestaties in sparse computing. Meta is begonnen met het testen van zijn eerste eigen AI-trainingschip. Deze stap zou de $ 10 miljard die in 2023 aan Nvidia GPU's wordt uitgegeven, kunnen verminderen.

Meta-prestatiebenchmarks

De platformtests laten een 6x hogere doorvoersnelheid en 1.5x betere prestaties per watt zien in vergelijking met systemen van de eerste generatie. De chips presteren goed met rangschikkings- en aanbevelingsmodellen van verschillende complexiteit. De eerste resultaten laten een 3x hogere prestatie zien in vier belangrijke evaluatiemodellen.

Meta-partnerschappen

Meta is een meerjarige alliantie aangegaan met Arm om AI over meerdere rekenlagen te verbeteren. Deze gezamenlijke inspanning verbetert de Executorch-runtime van PyTorch met Arm KleidiAI. De samenwerking maakt gebruik van Arms Neoverse-platformen voor Meta's aanbevelingssystemen die Facebook en Instagram aansturen.

Meta-toekomstige routekaart

Meta is van plan om in 2026 zijn eerste multi-gigawatt AI-supercluster "Prometheus" te lanceren. Het bedrijf zal "honderden miljarden" investeren in AI-infrastructuur. 

IBM

IBM creëert een symbiotische relatie tussen quantumontwikkelingen en klassieke verwerkingsinnovaties door traditioneel zakelijk computergebruik in evenwicht te brengen met de ontwikkeling van geavanceerde AI-hardware.

IBM AI-chips

De Telum II-processor voert IBM's AI-hardwarestrategie aan met acht krachtige cores die draaien op 5.5 GHz. Deze processor heeft een 40% hogere on-chip cachecapaciteit tot in totaal 360 MB. De geïntegreerde AI-accelerator biedt vier keer zoveel rekencapaciteit per chip als zijn voorganger. Een andere krachtige component, de IBM Spyre Accelerator, beschikt over 32 rekencores per chip en ondersteunt tot 1 TB geheugen verdeeld over acht kaarten.

IBM-prestatiebenchmarks

De dataverwerkingsmogelijkheden zijn aanzienlijk verbeterd dankzij de IO Acceleration Unit van Telum II, die een 50% hogere IO-dichtheid laat zien. Elke Spyre-chip levert 300 TOPS aan rekenkracht met een laag stroomverbruik van 75 W. Tests tonen aan dat een IBM Z-systeem met 96 Spyre-kaarten prestatieniveaus tot 30 PetaOps kan bereiken.

IBM-allianties die voor beide partijen voordelig zijn

AMD en IBM hebben hun samenwerking uitgebreid om de Instinct™ MI300X GPU beschikbaar te maken op IBM Cloud. IBM is ook een partnerschap aangegaan met Intel Foundry voor de productie van geavanceerde chips.

IBM's toekomstige routekaart

De AI-roadmap van het bedrijf loopt tot 2030 en verder. Belangrijke mijlpalen zijn onder meer multimodale transformatoren in 2024, neurale architecturen die verder gaan dan transformatoren, en geavanceerde redeneermogelijkheden in 2026.

Tenstorrent

Jim Keller, de legendarische chipontwerper, leidt Tenstorrent, dat zich in de AI-hardwarewereld onderscheidt door zijn focus op open source en RISC-V-architectuur.

Tenstorrent AI-chips

Tenstorrent produceert meerdere AI-versnellers voor verschillende workloads. Hun Grayskull-processor verscheen in april 2020 met 120 Tensix-cores die 332 TFLOPS aan FP8-prestaties leveren. De Wormhole-serie biedt uitzonderlijke waarde - de n150 ($999) wordt geleverd met 72 Tensix-cores die 262 TFLOPS aan FP8-compute genereren met 12 GB GDDR6-geheugen. De n300 ($1399) verdubbelt deze specificaties. Hun geavanceerde Blackhole-chip bevat 140 Tensix++-cores op een 6nm-proces en bereikt 774 TFLOPS (FP8) met 16 RISC-V CPU-cores.

Tenstorrent-prestatiebenchmarks

Grayskull bereikte een piekefficiëntie van 1.56 TFLOP/Watt tijdens tests. De chips presteerden beter dan Intel Sapphire Rapids-processors in ruwe metingen, ondanks dat ze zich op verschillende marktsegmenten richtten.

Strategische samenwerkingen van Tenstorrent

Het bedrijf ging strategische samenwerkingen aan met wereldwijde merken zoals LG, Hyundai, AIREV en SingularityNET. Samsung Securities leidde de recente financieringsronde van $ 700 miljoen, met onder andere LG Electronics en Jeff Bezos als investeerders, waardoor het bedrijf een waarde van $ 2.6 miljard kreeg.

Tenstorrent toekomst routekaart

Het bedrijf werkt samen met TSMC, Samsung en Rapidus voor 2nm-procesnodes. Hun Japanse opleidingsprogramma voor AI-chipontwerp streeft ernaar om tegen 2026 uit te groeien tot 40-60 deelnemers.

TSMC

TSMC drijft de AI-revolutie achter de schermen aan. Het bedrijf produceert silicium dat intelligentie mogelijk maakt voor vrijwel elke grote AI-speler.

TSMC AI-chipproductie

TSMC's A16-technologie De productie start in 2026. Deze geavanceerde technologie maakt gebruik van nanosheet-transistoren met innovatieve voedingsrails aan de achterzijde. Het bedrijf is van plan te beginnen met de productie van het N2-proces (2nm-klasse). N2P en A16 (1.6nm-klasse) volgen in 2026. Hun System-on-Wafer-technologie levert uitzonderlijke prestaties op waferniveau die voldoen aan de toekomstige AI-vereisten voor hyperscale datacenters.

TSMC-prestatienormen

De A16 presteert aanzienlijk beter dan het N2P-proces. Hij levert 8-10% hogere snelheden bij dezelfde spanning en verlaagt het stroomverbruik met 15-20% bij dezelfde snelheid. Datacenterproducten zien een tot 1.10x hogere chipdichtheid. Ook het A14-proces laat indrukwekkende verbeteringen zien. Hij biedt tot 15% hogere snelheden of 30% lager stroomverbruik in vergelijking met N2. De logische dichtheid neemt met 20% toe.

Strategische samenwerkingen van TSMC

De TSMC-fabriek in Phoenix is ​​begonnen met de massaproductie van chips voor NVIDIA. Dit markeert een belangrijke samenwerking tussen deze AI-giganten. OpenAI zal zijn eerste chipontwerp op maat met TSMC voltooien met behulp van 3-nanometerprocestechnologie. De invloed van het bedrijf reikt verder nu het de AI-ontwerpstromen van Cadence voor N3-, N2- en A16-procestechnologieën ondersteunt.

Toekomstige routekaart van TSMC

Het bedrijf brengt in 2026 de A16 op de markt, gevolgd door de A14 in 2028. Hun System-on-Wafer met CoWoS-technologie verschijnt in 2027. Deze innovatie maakt systemen op waferniveau mogelijk die de rekenkracht van een volledige server evenaren.

Broadcom

Broadcom is dankzij zijn op maat gemaakte accelerators en geavanceerde switchingoplossingen uitgegroeid tot de levensader van AI-netwerkinfrastructuur.

Broadcom AI-chips

De Thor Ultra is de eerste 800G AI ethernet-netwerkinterfacekaart in de branche voor grootschalige AI-datacenters die meer dan 100,000 XPU's ondersteunen. Het bedrijf produceert de Tomahawk 6-switchserie, die een bandbreedte van 102.4 Tbps levert en zich aanpast aan meerdere configuraties. Hun netwerkportfolio omvat Thor Ultra voor connectiviteit, samen met Tomahawk- en Jericho-switchfamilies die samen functioneren als een end-to-end platform. Chief Executive Hock Tan wijst erop dat deze netwerkproducten slechts een onderdeel vormen van Broadcoms AI-marktpotentieel van $ 60-90 miljard in 2027.

Prestatie-indicatoren van Broadcom

Het team verdubbelde de bandbreedte van Thor Ultra ten opzichte van zijn voorganger. De Tomahawk 6 ondersteunt 512 XPU-poorten met 200 Gbps of tot 1,024 poorten met 100 Gbps. De high-radix switches van het bedrijf kunnen meer dan 100,000 XPU's verbinden in een scale-out netwerk met twee lagen. Broadcom maakt gebruik van zijn geavanceerde SerDes- en DSP-technologieën om deze specificaties te realiseren.

Wederzijds voordelige allianties van Broadcom

OpenAI kondigde een samenwerking met Broadcom aan voor 10 gigawatt aan AI-versnellers op maat. Broadcom had vóór deze aankondiging al een order van 10 miljard dollar binnengehaald van een anonieme klant voor AI-chips op maat. De samenwerking van het bedrijf met Google aan meerdere generaties Tensor-processors heeft miljarden aan inkomsten gegenereerd.

Toekomstige routekaart van Broadcom

Broadcom verwacht dat de AI-omzet in fiscaal jaar 2026 aanzienlijk zal groeien. Hun omzet uit AI-halfgeleiders bedroeg in fiscaal jaar 2024 $ 12.2 miljard. Het bedrijf verbetert zijn 3D-verpakkingstechnologie om de prestaties te verbeteren. De eerste door OpenAI ontworpen chips uit deze samenwerking zullen in de tweede helft van 2026 op de markt komen.

Conclusie

De AI-hardwaremarkt is sinds 2023 drastisch veranderd. Wat begon als een industrie van $ 67 miljard, zal naar verwachting in 2032 een omzet van $ 1.3 biljoen bereiken. Deze 15 techgiganten blijven de prestatiegrenzen verleggen met elke nieuwe chipgeneratie. NVIDIA blijft voorop lopen met zijn baanbrekende Blackwell-architectuur. AMD, Google en anderen hebben de kloof aanzienlijk gedicht met hun eigen doorbraken.

Strategische samenwerkingen zijn cruciaal geworden in deze spannende race. Bedrijven zoals OpenAI werken nu samen met meerdere hardwareleveranciers tegelijk. Ze sluiten overeenkomsten met NVIDIA, AMD en Broadcom voor grootschalige computerimplementaties, gemeten in gigawatt in plaats van individuele chips. Dit laat een AI-toekomst zien waarin we rekenkracht meten zoals een nutsbedrijf.

De prestatieverbeteringen zijn verbluffend. De eerste verbeteringen hebben geleid tot een prestatieverbetering van 2 tot 4 keer tussen chipgeneraties. Elk bedrijf kiest zijn eigen weg. Cerebras bouwt enorme wafer-scale engines. Groq richt zich op razendsnelle inferentie. Traditionele spelers zoals Intel en Qualcomm passen hun architecturen aan voor AI-workloads.

De toekomst ziet er ambitieus uit. De meeste grote spelers zijn van plan om binnen 12 tot 18 maanden nieuwe architecturen te lanceren die nog grotere vooruitgang beloven. Sommige bedrijven zullen zich verenigen of verdwijnen naarmate de markt zich ontwikkelt. Andere zullen wellicht een grote sprong voorwaarts maken met baanbrekende technologieën.

Bedrijven en consumenten die profiteren van deze golf van snelle doorbraken zullen hun hardware vaker moeten upgraden. BigDataSupply helpt deze upgrades milieuvriendelijker en betaalbaarder te maken door u de mogelijkheid te bieden verkoop uw gebruikte GPU's, CPUs, SSD, RAM en andere soorten IT-apparatuurDit helpt om kosten te dekken bij de overstap naar nieuwere, krachtigere AI-hardware.

De AI-hardwaremarkt zal er in 2026 heel anders uitzien dan nu. Winnaars hebben meer nodig dan alleen pure prestaties. Energie-efficiëntie, software-ecosystemen en productiecapaciteit zullen een sleutelrol spelen. De wereldwijde politiek rond chipproductie zal ook de ontwikkeling van deze markt bepalen.

Deze hardwarerevolutie zal de manier waarop industrieën AI inzetten en gebruiken radicaal veranderen. Deze chips maken mogelijkheden mogelijk die een paar jaar geleden onmogelijk leken – van live grootschalige taalmodelinferentie tot geavanceerde computer vision. Ze zullen compleet nieuwe categorieën producten en diensten creëren.

oversteken