Blog

Wat zijn AI-tokens en waarom bepalen ze je kosten?

Leer wat AI-tokens zijn, hoe ze je kosten bepalen en waarom sommige AI-tools tientallen keren duurder zijn dan andere.

Gepubliceerd op

Laatst gewijzigd op

6 minuten leestijd

Kort samengevat

AI-tokens bepalen rechtstreeks wat je betaalt per prompt, document en antwoord, waardoor tokengebruik je echte AI-kostprijs stuurt. In het Nederlands reken je voor een A4-pagina van 500 woorden best op ongeveer 750 tot 1.250 tokens, afhankelijk van het model en de tokenizer.

AI-tokens bepalen letterlijk wat je betaalt voor elk AI-gesprek. Toch snappen de meeste ondernemers pas hoe duur hun "goedkope" AI-abonnement werkelijk is als de eerste factuur binnenkomt.

We leggen uit wat tokens precies zijn, hoeveel tekst je er écht voor krijgt en waarom sommige AI-tools je tientallen keren meer kosten dan andere.

Wat zijn AI-tokens?

Een token is het kleinste stukje tekst dat een AI-model begrijpt. Dat kan een heel woord zijn, een deel van een woord, of zelfs een leesteken. ChatGPT en soortgelijke tools splitsen je vraag op in deze brokjes om te snappen wat je bedoelt.

Zie het als de valuta van AI. Je koopt geen "woorden" of "vragen", je koopt tokens. En dat maakt een groot verschil.

Een voorbeeld: De zin "Hallo, hoe gaat het?" bestaat uit ongeveer 6 tokens. Het woord "Hallo" is 1 token. Het woord "programmeren" kan 2 of 3 tokens zijn omdat het model het opsplitst in herkenbare stukken. Een punt of uitroepteken telt ook als aparte token.

In het Nederlands reken je gemiddeld op 1,5 tot 2,5 tokens per woord, afhankelijk van het model en de tokenizer. Een pagina A4-tekst van 500 woorden vertegenwoordigt dus meestal zo'n 750 tot 1.250 tokens. OpenAI legt uit wat tokens zijn, terwijl GPTforWork laat zien dat tokenratio's per taal verschillen.

Wat betekenen tokens voor je zaak?

Tokens bepalen twee kritieke dingen: hoeveel je betaalt en hoeveel context een AI-model kan onthouden.

1. Je kosten structuren

Bijna elke AI-tool rekent af per token. Er is een prijs voor input tokens (wat jij instuurt) en output tokens (wat het model terugstuurt). Die laatste zijn meestal duurder omdat het model moeite moet doen om iets te genereren.

Kijk naar deze prijzen voor GPT-5.1:

Type Prijs per 1 miljoen tokens
Input $2,50
Output $10,00

Zoals OpenAI in zijn pricing-pagina aangeeft, betekent dit dat een uitgebreide vraag van 2.000 tokens die een antwoord van 1.000 tokens oplevert, je ongeveer $0,015 kost (zo'n €0,014). Klinkt goedkoop? Dat is het, tot je team dagelijks honderden van deze gesprekken voert.

2. Je contextgeheugen

Elk AI-model heeft een maximum aantal tokens dat het tegelijk kan verwerken. Dit wordt de "context window" genoemd. GPT-5.1 kan 400.000 tokens aan, dat is ruim 1.000 pagina's A4-tekst. Kleinere modellen zoals GPT-5 mini stoppen bij 32.000 tokens.

Een concreet scenario: je vraagt een AI om een contract van 50 pagina's samen te vatten, maar je model kan maar 10 pagina's aan. Dan moet je het opsplitsen, of upgraden naar een duurder model met meer context.

Hoe werkt token-berekening?

De meeste AI-providers rekenen op dezelfde manier af:

  1. Je stuurt een prompt → dit telt als input tokens
  2. Het model denkt na (optioneel bij reasoning modellen) → extra kosten
  3. Het model genereert antwoord → dit telt als output tokens (meestal duurder)
  4. Soms: je gebruikt tools → extra tokens voor functieaanroepen

Voorbeeld van een simpele berekening:

Stap Tokens Tarief Kosten
Jouw vraag (500 woorden) 1.000 input $2,50/1M $0,0025
AI-antwoord (300 woorden) 600 output $10/1M $0,0060
Totaal per gesprek 1.600 - $0,0085

Doe je dit 50 keer per dag met je team? Dan praat je al snel over $0,43 per dag of ruim $12 per maand voor deze ene workflow. Voeg daar langere documenten, meerdere iteraties en zwaardere modellen aan toe, en je totale AI-kost loopt veel sneller op dan de losse promptprijs doet vermoeden.

Waarom verschillen de prijzen zo veel?

Niet alle tokens zijn even duur. Het model dat je kiest bepaalt voor het grootste deel je kosten. OpenAI publiceert hun prijzen officieel, Anthropic doet dat voor Claude, en SiliconData vergelijkt de markt breder.

Model Input (per 1M) Output (per 1M)
GPT-5 nano $0,05 $0,40
GPT-5 mini $0,25 $2,00
GPT-5.1 $1,25 $10,00
GPT-5.4 $2,50 $15,00
Claude Haiku 4.5 $1,00 $5,00
Claude Sonnet 4.6 $3,00 $15,00
Claude Opus 4.6 $5,00 $25,00

Het verschil tussen een klein en groot model is enorm. Vergelijk je GPT-5 nano-output ($0,40) met Claude Opus 4.6-output ($25), dan betaal je ruim 62 keer meer. Voor simpele taken zoals teksten herschrijven of samenvatten is een mini-model vaak voldoende. Voor complexe analyses of creatieve copy heb je het zwaardere werk nodig.

Voorbeelden van token-gebruik in de praktijk

Voorbeeld 1: De marketingafdeling

Je marketingteam gebruikt AI om 10 blogposts per maand te schrijven. Per post:

  • Input: 800 woorden aan briefing en research (2.400 tokens)
  • Output: 1.200 woorden artikel (3.600 tokens)
  • Model: GPT-5.1

Kosten per artikel: (2.400 × $0,0000025) + (3.600 × $0,00001) = $0,042 Kosten per maand: $0,42, bijna gratis, toch?

Maar wat als ze vier versies proberen voor elke post om de juiste toon te vinden? En het model voor elke poging opnieuw de hele briefing sturen? Dan zit je al snel op $2 per artikel of $20 per maand.

Voorbeeld 2: De klantenservice

Je zet een AI-chatbot in voor klantenservice. Per gesprek:

  • Input: gemiddelde vraag + context (1.500 tokens)
  • Output: antwoord (500 tokens)
  • Aantal gesprekken: 200 per dag
  • Model: GPT-5 mini (snel en goedkoop)

Dagelijkse kosten: 200 × [(1.500 × $0,00000015) + (500 × $0,0000006)] = $0,105 Maandkosten: €3,20, een fractie van wat een menselijke medewerker kost.

Voorbeeld 3: De juridische analyse

Je advocaat gebruikt AI om contracten te screenen. Per contract:

  • Input: 50 pagina's contracttekst (15.000 tokens)
  • Output: risico-analyse (2.000 tokens)
  • Model: Claude Opus 4.6 (sterk in juridische tekst)

Kosten per contract: (15.000 × $0,000005) + (2.000 × $0,000025) = $0,125 Bij 20 contracten per maand: $2,50, nog steeds verwaarloosbaar tegenover advocatuurtarieven.

Waar moet je op letten?

Output is duurder dan input

Bijna alle providers rekenen 3 tot 6 keer meer voor output tokens dan input tokens. Waarom? Genereren is moeilijker dan begrijpen. Het model moet woord voor woord voorspellen, terwijl het bij input alleen maar analyseren hoeft.

Tip: Stel je prompts zo in dat ze kort en scherp zijn. Een goede briefing van 100 woorden geeft vaak hetzelfde resultaat als een wollige vraag van 500 woorden.

Context window grenzen

Als je een model vraagt om een 100-pagina's document samen te vatten, maar het kan maar 50 pagina's aan, dan moet je het document splitsen. Dat betekent meerdere API-calls en dus meerdere keren betalen voor overlappende context.

Tip: Kies je model op basis van je grootste verwachte input. Voor dagelijks werk volstaat 128K tokens. Voor bijzondere projecten (boeken, jaarverslagen) heb je misschien een model met 200K+ tokens nodig.

"Verborgen" tokens

Sommige AI-tools tellen extra tokens voor:

  • Systeemprompts (de instructies die het model vooraf krijgt)
  • Functieaanroepen (als je AI tools laat gebruiken)
  • Caching (sommige providers rekenen minder voor hergebruikte input)

Zoals OpenKlauw uitlegt in zijn analyse van AI-agentkosten, zie je die extra tokens vaak niet meteen terug in de interface, maar wel op je factuur.

Realiteitscheck: Voor de meeste KMO's liggen de maandelijkse AI-kosten tussen €50 en €300. Maar bij hoog volume of het verkeerde model kunnen die kosten exponentieel stijgen.

Conclusie

AI-tokens zijn de onzichtbare valuta achter elke AI-interactie. Ze bepalen niet alleen je kosten, maar ook wat een model wel en niet kan.

Het belangrijkste inzicht? Je model kiezen is belangrijker dan het aantal gesprekken. Een slimme keuze tussen een mini-model voor routine en een krachtig model voor complex werk kan je kosten met meer dan 90% verlagen zonder in te leveren op kwaliteit.

Wil je weten welke AI-setup past bij jouw gebruik? Bekijk hoe ThinkTank je helpt om slimmer met AI-kosten om te gaan.

Veelgestelde vragen

Hoe weet ik hoeveel tokens mijn tekst gebruikt? +

Veel AI-platforms tonen het tokenverbruik na elke interactie of in hun verbruiksrapporten. Doen ze dat niet, dan kun je online token calculators gebruiken om een goede schatting te maken. Zeker bij lange documenten of terugkerende workflows is dat nuttig, omdat kleine verschillen snel grote kostenimpact krijgen.

Zijn tokens bij alle AI-tools hetzelfde? +

Nee. Elk model gebruikt een eigen tokenizer, waardoor hetzelfde stuk tekst per tool licht kan verschillen in tokenaantal. Daardoor zijn kostenvergelijkingen op basis van alleen prijs per miljoen tokens vaak misleidend. Je moet altijd kijken naar prijs, modelgedrag en hoeveel tokens jouw echte gebruikspatroon verbruikt.

Kun je tokens besparen? +

Ja. Je bespaart tokens door kortere prompts te schrijven, geen overbodige context mee te sturen en het juiste model te kiezen voor de taak. Vooral lange gesprekshistoriek en uitgebreide documenten maken antwoorden snel duurder. Slim promptontwerp is dus niet alleen beter voor output, maar ook voor je budget.

Betaal ik ook voor de geschiedenis van een gesprek? +

Vaak wel. In lange gesprekken wordt eerdere context opnieuw meegestuurd, waardoor de kost per extra bericht geleidelijk oploopt. Dat merk je vooral bij tools die veel geheugen of lange contextvensters gebruiken. Wie budget wil bewaken, moet dus ook letten op hoe lang een gesprek actief blijft.

Lees meer