Home > Kenniscentrum > Technologie > Grenzen van AI: 5 opvallende cao-fouten van ChatGPT
Brightmine background

De grenzen van AI: vijf opvallende cao-fouten van ChatGPT

Brightmine resources graphic

Deel:

Gepubliceerd: 22 mei 2025 | door Brightmine

De grenzen van AI: vijf opvallende cao-fouten van ChatGPT

We delen vijf opvallende situaties waarin ChatGPT de plank misslaat bij cao-interpretaties.

1. Missen van belangrijke nuances

Een belangrijke beperking van ChatGPT is dat het systeem niet altijd herkent voor wie bepaalde arbeidsvoorwaarden precies gelden.  Zo mist de tool soms dat een arbeidsvoorwaarde alleen geldt voor een specifieke doelgroep en niet voor iedereen die onder de werkingssfeer van de cao valt.

Een duidelijk voorbeeld zien we in de cao voor het voortgezet onderwijs. In de laatste onderhandelingen is een aantal extra beloningen samengevoegd in de zogenaamde oktobertoelage. ChatGPT is op de hoogte van deze wijziging. Waar de tool de fout mee in gaat is door aan te nemen dat deze toelage geldt voor ‘iedereen in loondienst bij een VO-instelling’. In werkelijkheid is de regeling vooral bedoeld voor niet-onderwijspersoneel. Van het onderwijzend personeel hebben alleen docenten aan het eind van hun salarisschaal er recht op.

2. Complexe rekenregels worden gemist

Het toepassen van voorwaarden is bij uitstek iets waar computers goed in zijn.  Toch blijkt ChatGPT belangrijke voorwaarden weleens over het hoofd te zien bij cao-berekeningen.

In de berekening van het IKB-budget van rijksambtenaren ziet ChatGPT  bijvoorbeeld over het hoofd dat er een ondergrens is. ChatGPT berekent keurig 16,5% van het bruto maandsalaris (€2.336,78), maar mist een cruciale regel: er geldt een ondergrens van €440.

Ook bij de eenmalige uitkering voor ontslagen rijksambtenaren (juli 2025) gaat het mis.  ChatGPT vergeet dat een WW-uitkering na twee maanden daalt naar 70% van het oorspronkelijke salaris. De eenmalige uitkering moet daarvoor worden gecorrigeerd. Ook nadat de AI-tool erop gewezen is, houdt het systeem vol dat de eenmalige uitkering even hoog is als voor een ambtenaar in loondienst.

3. Verwarrende keuzeopties

Een functie waarmee ChatGPT feedback ophaalt is om gebruikers meerdere reacties voor te leggen en te laten kiezen. Dit helpt bij de ontwikkeling van AI, maar voor gebruikers kan het verwarrend zijn, zeker als een van de opties totaal niet klopt.

Een praktijkvoorbeeld: bij de vraag hoeveel werknemers van McCain worden doorbetaald bij ziekte geeft ChatGPT twee opties. De eerste is correct, maar de tweede is volledig onjuist met de suggestie dat werknemers ‘doorgaans’ 80% doorbetaald krijgen.

4. Onjuiste informatie toevoegen

ChatGPT heeft de neiging om extra informatie te geven boven op het antwoord op de vraag die was gesteld. Dit leidt regelmatig tot fouten.

Neem de inlenersbeloning, waarvoor de regels zijn vastgelegd in de uitzend-cao’s van NBBU en ABU. Een van de uitzonderingen waarvoor de inlenersbeloning niet geldt, zijn uitzendkrachten zonder startkwalificatie die een opleiding volgen. ChatGPT geeft correct bevestigend antwoord dat deze groep niet onder de inlenersbeloning valt, maar voegt uit zichzelf de onjuiste informatie toe dat dit maar 52 weken mag. In werkelijkheid kan deze termijn worden verlengd tot de duur van de opleiding.

5. Moeite met tabelinterpretatie

In cao’s is belangrijke informatie vaak in tabelvorm weergegeven. Een arbeidsvoorwaarde geldt bijvoorbeeld voor een bepaalde leeftijdsgroep. Het goed lezen van de betekenis van een tabel is voor veel mensen een uitdaging, maar ook ChatGPT heeft er soms moeite mee.

Een voorbeeld hiervan zien we bij de seniorendagen-regeling van McCain. Vanaf 50 jaar hebben werknemers hier recht op en met elke vijf jaar erbij, stijgt het aantal extra vrije dagen. ChatGPT weet goed te benoemen hoeveel seniorendagen iemand van 55 krijgt, maar snapt niet dat iemand van 58 evenveel seniorendagen krijgt omdat die in dezelfde leeftijdsgroep, 55 tot 60, valt.

Betrouwbare cao-data: de basis voor correcte beslissingen

Hoewel AI-tools zoals ChatGPT indrukwekkend zijn, blijkt uit deze voorbeelden dat accurate cao-interpretatie meer vraagt dan alleen slimme technologie. Voor correcte toepassing van cao-bepalingen is toegang tot betrouwbare, actuele data essentieel.

Brightmine biedt deze zekerheid met het HR & Compliance Center. Met directe toegang tot meer dan 2.000 cao’s, gevalideerd door experts en continu geactualiseerd, neem je beslissingen op basis van betrouwbare data. Onze database, gevoed door een exclusieve samenwerking met de FNV, zorgt ervoor dat je altijd werkt met de juiste informatie.

Over de auteur

Brightmine

Met meer dan 10.000 klanten is Brightmine een toonaangevende wereldwijde leverancier van personeelsdata, analyses en inzichten voor HR.

Al meer dan twee decennia helpt Brightmine, voorheen bekend als XpertHR, om leiders in HR vol vertrouwen hun weg te vinden in de steeds veranderende wereld van HR. Dit doen we door het combineren van cao-data, arbeidsmarktdata, AI-technologie en vertrouwde HR-expertise.

Brightmine is een divisie van LexisNexis Data Services binnen RELX®, een wereldwijde aanbieder van informatie, analyses en beslissingshulpmiddelen. RELX bedient klanten in meer dan 180 landen en heeft meer dan 35.000 werknemers. Ticker: Londen: REL; Amsterdam: REN; New York: RELX.

Misschien vind je dit ook interessant..

Blogs

Oldenboom: ‘AI kan kandidaten niet in de ogen kijken’

Hylke Oldenboom deelt zes stellingen over HR en recruitment: geen perfecte match, maar een duurzame match is de …

Webinars

On-demand webinar: HR en AI – de juridische valkuilen

Ontdek in 60 minuten hoe HR veilig en compliant AI kan inzetten: van AI-verordening tot AVG-regels. Bekijk het …

Blogs

Grenzen van AI: 5 opvallende cao-fouten van ChatGPT

Hoe betrouwbaar is ChatGPT bij cao’s? Ontdek 5 fouten die aantonen waarom AI en arbeidsvoorwaarden geen vanzelfsprekende match …