
De grenzen van AI: vijf opvallende cao-fouten van ChatGPT
ChatGPT is een ongekend krachtig middel om informatie op te zoeken. In een paar seconden kan de tool uit grote hoeveelheden informatie een concreet en correct antwoord genereren. Maar hoe betrouwbaar is deze AI-assistent eigenlijk als het gaat om de subtiele details van cao-bepalingen? Uit ons onderzoek blijkt dat voorzichtigheid geboden is. We delen vijf opvallende situaties waarin ChatGPT de plank misslaat bij cao-interpretaties.

Gepubliceerd: 22 mei 2025 | door Brightmine
De grenzen van AI: vijf opvallende cao-fouten van ChatGPT
We delen vijf opvallende situaties waarin ChatGPT de plank misslaat bij cao-interpretaties.
1. Missen van belangrijke nuances
Een belangrijke beperking van ChatGPT is dat het systeem niet altijd herkent voor wie bepaalde arbeidsvoorwaarden precies gelden. Zo mist de tool soms dat een arbeidsvoorwaarde alleen geldt voor een specifieke doelgroep en niet voor iedereen die onder de werkingssfeer van de cao valt.
Een duidelijk voorbeeld zien we in de cao voor het voortgezet onderwijs. In de laatste onderhandelingen is een aantal extra beloningen samengevoegd in de zogenaamde oktobertoelage. ChatGPT is op de hoogte van deze wijziging. Waar de tool de fout mee in gaat is door aan te nemen dat deze toelage geldt voor ‘iedereen in loondienst bij een VO-instelling’. In werkelijkheid is de regeling vooral bedoeld voor niet-onderwijspersoneel. Van het onderwijzend personeel hebben alleen docenten aan het eind van hun salarisschaal er recht op.
2. Complexe rekenregels worden gemist
Het toepassen van voorwaarden is bij uitstek iets waar computers goed in zijn. Toch blijkt ChatGPT belangrijke voorwaarden weleens over het hoofd te zien bij cao-berekeningen.
In de berekening van het IKB-budget van rijksambtenaren ziet ChatGPT bijvoorbeeld over het hoofd dat er een ondergrens is. ChatGPT berekent keurig 16,5% van het bruto maandsalaris (€2.336,78), maar mist een cruciale regel: er geldt een ondergrens van €440.
Ook bij de eenmalige uitkering voor ontslagen rijksambtenaren (juli 2025) gaat het mis. ChatGPT vergeet dat een WW-uitkering na twee maanden daalt naar 70% van het oorspronkelijke salaris. De eenmalige uitkering moet daarvoor worden gecorrigeerd. Ook nadat de AI-tool erop gewezen is, houdt het systeem vol dat de eenmalige uitkering even hoog is als voor een ambtenaar in loondienst.

Direct actuele cao- en pensioeninfo, perfect geïntegreerd met je software
3. Verwarrende keuzeopties
Een functie waarmee ChatGPT feedback ophaalt is om gebruikers meerdere reacties voor te leggen en te laten kiezen. Dit helpt bij de ontwikkeling van AI, maar voor gebruikers kan het verwarrend zijn, zeker als een van de opties totaal niet klopt.
Een praktijkvoorbeeld: bij de vraag hoeveel werknemers van McCain worden doorbetaald bij ziekte geeft ChatGPT twee opties. De eerste is correct, maar de tweede is volledig onjuist met de suggestie dat werknemers ‘doorgaans’ 80% doorbetaald krijgen.
4. Onjuiste informatie toevoegen
ChatGPT heeft de neiging om extra informatie te geven boven op het antwoord op de vraag die was gesteld. Dit leidt regelmatig tot fouten.
Neem de inlenersbeloning, waarvoor de regels zijn vastgelegd in de uitzend-cao’s van NBBU en ABU. Een van de uitzonderingen waarvoor de inlenersbeloning niet geldt, zijn uitzendkrachten zonder startkwalificatie die een opleiding volgen. ChatGPT geeft correct bevestigend antwoord dat deze groep niet onder de inlenersbeloning valt, maar voegt uit zichzelf de onjuiste informatie toe dat dit maar 52 weken mag. In werkelijkheid kan deze termijn worden verlengd tot de duur van de opleiding.
5. Moeite met tabelinterpretatie
In cao’s is belangrijke informatie vaak in tabelvorm weergegeven. Een arbeidsvoorwaarde geldt bijvoorbeeld voor een bepaalde leeftijdsgroep. Het goed lezen van de betekenis van een tabel is voor veel mensen een uitdaging, maar ook ChatGPT heeft er soms moeite mee.
Een voorbeeld hiervan zien we bij de seniorendagen-regeling van McCain. Vanaf 50 jaar hebben werknemers hier recht op en met elke vijf jaar erbij, stijgt het aantal extra vrije dagen. ChatGPT weet goed te benoemen hoeveel seniorendagen iemand van 55 krijgt, maar snapt niet dat iemand van 58 evenveel seniorendagen krijgt omdat die in dezelfde leeftijdsgroep, 55 tot 60, valt.
Betrouwbare cao-data: de basis voor correcte beslissingen
Hoewel AI-tools zoals ChatGPT indrukwekkend zijn, blijkt uit deze voorbeelden dat accurate cao-interpretatie meer vraagt dan alleen slimme technologie. Voor correcte toepassing van cao-bepalingen is toegang tot betrouwbare, actuele data essentieel.
Brightmine biedt deze zekerheid met het HR & Compliance Center. Met directe toegang tot meer dan 2.000 cao’s, gevalideerd door experts en continu geactualiseerd, neem je beslissingen op basis van betrouwbare data. Onze database, gevoed door een exclusieve samenwerking met de FNV, zorgt ervoor dat je altijd werkt met de juiste informatie.

Bekijk onze uitgebreide HR-bronnen en expertise
In een steeds veranderende regelgevingsomgeving hebben wij alles voor jou in huis om overzicht te behouden en aan de regelgeving te voldoen.
Over de auteur

Brightmine
Met meer dan 10.000 klanten is Brightmine een toonaangevende wereldwijde leverancier van personeelsdata, analyses en inzichten voor HR.
Al meer dan twee decennia helpt Brightmine, voorheen bekend als XpertHR, om leiders in HR vol vertrouwen hun weg te vinden in de steeds veranderende wereld van HR. Dit doen we door het combineren van cao-data, arbeidsmarktdata, AI-technologie en vertrouwde HR-expertise.
Brightmine is een divisie van LexisNexis Data Services binnen RELX®, een wereldwijde aanbieder van informatie, analyses en beslissingshulpmiddelen. RELX bedient klanten in meer dan 180 landen en heeft meer dan 35.000 werknemers. Ticker: Londen: REL; Amsterdam: REN; New York: RELX.
Volg Brightmine op LinkedIn