De Opkomst van LLM ASICs: Waarom Inference Hardware Belangrijk Is
Specialistische chips maken AI-inferentie sneller en goedkoper.
De toekomst van AI is niet alleen over slimme modellen - het gaat om slimme silicium.
Specialistische hardware voor LLM-inferentie trekt een revolutie aan die vergelijkbaar is met de overgang van Bitcoin-mining naar ASICs.
Voor meer informatie over doorvoer, latentie, VRAM en benchmarks over runtime en hardware, zie LLM-prestaties: benchmarks, bottlenecks & optimalisatie.
Elektrische Imagination - Flux tekst naar beeld LLM.
Waarom LLMs hun eigen hardware nodig hebben
Large language models hebben de wereld van AI veranderd, maar achter elke vloeiende reactie ligt een enorme hoeveelheid rekenkracht en geheugentransacties. Aangezien inferentiekosten overheersen — vaak hoger dan trainingkosten over het levensloop van een model — maakt hardware die specifiek is afgestemd op inferentie economisch zin.
De analogie met Bitcoin-mining is geen toeval. In beide gevallen profiteert een zeer specifieke, herhalende werklast enorm van afgestemde siliciumchips die alles niet-essentiële weghalen.
Leszoeken uit Bitcoin-mining
Bitcoin-mining evolueerde door vier generaties:
| Tijdperk | Hardware | Belangrijkste voordeel | Beperking |
|---|---|---|---|
| 2015–2020 | GPUs (CUDA, ROCm) | Flexibiliteit | Veel energie verbruikt, geheugenbeperkt |
| 2021–2023 | TPUs, NPUs | Coarse-grain specialisatie | Nog steeds gericht op training |
| 2024–2025 | Transformer ASICs | Afgestemd op lage-bits inferentie | Beperkte algemeenheid |
AI volgt een vergelijkbare route. Elke overgang verbeterde prestaties en energie-efficiëntie met ordes van grootte.
Echter, in tegenstelling tot Bitcoin-ASICs (die alleen SHA-256 berekenen), hebben inferentie-ASICs enige flexibiliteit nodig. Modellen evolueren, architecturen veranderen en nauwkeurigheidschema’s verbeteren. Het trucje is om net genoeg te specialiseren — de kernpatronen hardwireden terwijl aanpasbaarheid behouden blijft aan de randen.
Wat maakt LLM-inferentie anders dan training
Inferentie werklasten hebben unieke kenmerken die gespecialiseerde hardware kan benutten:
- Lage precisie domineert — 8-bit, 4-bit, zelfs ternaire of binaire rekenkundige bewerkingen werken goed voor inferentie
- Geheugen is het knelpunt — Het verplaatsen van gewichten en KV-caches verbruikt veel meer energie dan rekenen
- Latentie is belangrijker dan doorvoer — Gebruikers verwachten tokens binnen 200 ms
- Massieve aanvraagparallelisatie — Duizenden gelijktijdige inferentieaanvragen per chip
- Voorspelbare patronen — Transformerlagen zijn zeer gestructureerd en kunnen hardwireden worden
- Mogelijkheden voor sparsiteit — Modellen gebruiken steeds vaker snoeien en MoE (Mixture-of-Experts) technieken
Een afgestemd inferentiechip kan deze aannames hardwireden om 10–50× betere prestaties per watt te bereiken dan algemene GPUs.
Wie bouwt LLM-geoptimaliseerde hardware
De inferentie ASIC-markt verhit zich met zowel gevestigde spelers als ambitieuze startups:
| Onderneming | Chip / Platform | Specialiteit |
|---|---|---|
| Groq | LPU (Language Processing Unit) | Deterministische doorvoer voor LLMs |
| Etched AI | Sohu ASIC | Hardwired Transformer engine |
| Tenstorrent | Grayskull / Blackhole | Algemene ML met hoge-bandbreedte mesh |
| OpenAI × Broadcom | Custom Inference Chip | Geruchte uitrol in 2026 |
| Intel | Crescent Island | Inferentie-alleen Xe3P GPU met 160GB HBM |
| Cerebras | Wafer-Scale Engine (WSE-3) | Groot op-die geheugenbandbreedte |
Deze zijn geen vaporware — ze worden vandaag gebruikt in datacenters. Bovendien ontwerpen startups zoals d-Matrix, Rain AI, Mythic en Tenet chips vanaf nul rond transformer rekenpatronen.
Architectuur van een Transformer-inferentie ASIC
Wat ziet een transformer-geoptimaliseerde chip er eigenlijk onder de motorkap uit?
+--------------------------------------+
| Host Interface |
| (PCIe / CXL / NVLink / Ethernet) |
+--------------------------------------+
| On-chip Interconnect (mesh/ring) |
+--------------------------------------+
| Compute Tiles / Cores |
| — Dense matrix multiply units |
| — Low-precision (int8/int4) ALUs |
| — Dequant / Activation units |
+--------------------------------------+
| On-chip SRAM & KV cache buffers |
| — Hot weights, fused caches |
+--------------------------------------+
| Quantization / Dequant Pipelines |
+--------------------------------------+
| Scheduler / Controller |
| — Static graph execution engine |
+--------------------------------------+
| Off-chip DRAM / HBM Interface |
+--------------------------------------+
Belangrijke architectuurkenmerken zijn:
- Rekenkernen — Dichte matrixvermenigvuldigingsunits geoptimaliseerd voor int8, int4 en ternaire bewerkingen
- On-chip SRAM — Grote buffers bevatten hete gewichten en KV-caches, minimaliseren duur DRAM-toegang
- Streaminterconnects — Mesh-topologie stelt efficiënte schaalbaarheid over meerdere chips voor
- Quantisatieengines — Real-time quantisatie/dequantisatie tussen lagen
- Compilerstack — Vertaalt PyTorch/ONNX grafieken rechtstreeks in chip-specifieke micro-opdrachten
- Hardwired aandacht kernels — Verwijderd controlestroom overhead voor softmax en andere bewerkingen
De ontwerpfilosofie spiegelt Bitcoin-ASICs weer: elke transistor dienst doet aan de specifieke werklast. Geen verspilde silicium op functies die inferentie niet nodig heeft.
Reële benchmarks: GPUs vs. inferentie ASICs
Hier is hoe gespecialiseerde inferentiehardware zich vergelijkt met state-of-the-art GPUs:
| Model | Hardware | Doorvoer (tokens/s) | Tijd tot eerste token | Prestatievermenigvuldiger |
|---|---|---|---|---|
| Llama-2-70B | NVIDIA H100 (8x DGX) | ~80–100 | ~1.7s | Baseline (1×) |
| Llama-2-70B | Groq LPU | 241–300 | 0.22s | 3–18× sneller |
| Llama-3.3-70B | Groq LPU | ~276 | ~0.2s | Consistente 3× |
| Gemma-7B | Groq LPU | 814 | <0.1s | 5–15× sneller |
Bronnen: Groq.com, ArtificialAnalysis.ai, NVIDIA Developer Blog
Deze getallen illustreren niet incrementele verbeteringen, maar orde van grootte winsten in zowel doorvoer als latentie.
De kritieke afwegingen
Specialisatie is krachtig, maar komt met uitdagingen:
-
Flexibiliteit versus efficiëntie. Een volledig vastgelegde ASIC is razendsnel met vandaag’s transformermodellen, maar kan moeite hebben met morgen’s architecturen. Wat gebeurt er als aandachtmechanismen evolueren of nieuwe modelfamilies ontstaan?
-
Quantisatie en nauwkeurigheid. Lage precisie bespaart enorme hoeveelheden energie, maar het beheren van nauwkeurigheidsverlies vereist geavanceerde quantisatieschema’s. Niet alle modellen kunnen netjes worden gequantiseerd tot 4-bit of lager.
-
Software-ecosysteem. Hardware zonder robuuste compilers, kernels en frameworks is nutteloos. NVIDIA domineert nog steeds vooral vanwege het rijpe CUDA-ecosysteem. Nieuwe chipmakers moeten zwaar investeren in software.
-
Kosten en risico. Een chip ontwerpen kost tientallen miljoenen dollar en duurt 12–24 maanden. Voor startups is dit een enorme gok op architectuurveronderstellingen die mogelijk niet standhouden.
Nog steeds, op hyperschaal vertalen zelfs 2× efficiëntieverbeteringen miljarden in besparingen. Voor cloudproviders die miljoenen inferentieaanvragen per seconde uitvoeren, is afgestemde silicium steeds minder onderhandelbaar.
Wat een ideaal LLM-inferentiechip eruit zou moeten zien
| Kenmerk | Ideaal specificatie | |
|---|---|---|
| Proces | 3–5nm node | |
| On-chip SRAM | 100MB+ nauw gekoppeld | |
| Precisie | int8 / int4 / ternaire native ondersteuning | |
| Doorvoer | 500+ tokens/sec (70B model) | |
| Latentie | <100ms tijd tot eerste token | |
| Interconnect | Lage latentie mesh of optische links | |
| Compiler | PyTorch/ONNX → microcode toolchain | |
| Energie | <0,3 joules per token |
De toekomst: 2026–2030 en daarbuiten
Verwacht dat het inferentiehardwarelandschap zich stratificeert in drie lagen:
-
Trainingchips. Hoogwaardige GPUs zoals NVIDIA B200 en AMD Instinct MI400 zullen blijven domineren in training met hun FP16/FP8 flexibiliteit en grote geheugenbandbreedte.
-
Inferentie ASICs. Hardwired, lage-precisie transformeraccelerators zullen productie-serveerproces op hyperschaal aanpakken, geoptimaliseerd voor kosten en efficiëntie.
-
Edge NPUs. Kleine, ultra-efficiënte chips zullen gecompliceerde LLMs brengen naar smartphones, voertuigen, IoT-apparaten en robots, waardoor op-apparaat intelligentie mogelijk is zonder afhankelijkheid van de cloud.
Buiten hardware alleen zullen we zien:
- Hybride clusters — GPUs voor flexibele training, ASICs voor efficiënte serveerproces
- Inferentie als dienst — Grote cloudproviders implementeren afgestemde chips (zoals AWS Inferentia, Google TPU)
- Hardware-Software Co-Design — Modellen expliciet ontworpen om hardwarevriendelijk te zijn via sparsiteit, quantisatiebewustzijn en blockwise aandacht
- Open standaarden — Standaardiseerde inferentie APIs om leveranciersafhankelijkheid te voorkomen
Eindgedachten
De “ASIC-izatie” van AI-inferentie is al onderweg. Net zoals Bitcoin-mining van CPUs naar gespecialiseerde silicium is geëvolueerd, volgt AI implementatie dezelfde weg.
De volgende revolutie in AI gaat niet over grotere modellen — het gaat over betere chips. Hardware geoptimaliseerd voor de specifieke patronen van transformer-inferentie bepaalt wie AI economisch op schaal kan implementeren.
Net zoals Bitcoin-miners elke verloren watt optimaliseerden, zullen inferentiehardwarechips elke laatste FLOP per joule knijpen. Wanneer dat gebeurt, is de echte doorbraak niet in de algoritmes — het is in het silicium dat ze uitvoert.
De toekomst van AI wordt in silicium gesneden, één transistor tegelijk.
Voor meer benchmarks, hardwarekeuzes en prestatieoptimalisatie, controleer ons LLM-prestaties: benchmarks, bottlenecks & optimalisatie hub.
Nuttige links
- Groq Officiële benchmarks
- Artificial Analysis - LLM-prestatiesleaderboard
- NVIDIA H100 Technische korte samenvatting
- Etched AI - Transformer ASIC aankondiging
- Cerebras Wafer-Schaal Engine
- NVidia RTX 5080 en RTX 5090-prijzen in Australië - oktober 2025
- LLM-prestaties en PCIe-lanes: belangrijke overwegingen
- Large Language Models Speed Test
- Vergelijken NVidia GPU specificaties geschiktheid voor AI
- Is de Quadro RTX 5880 Ada 48GB goed?