Home > Kenniscentrum > Technologie > Grenzen van AI: 5 opvallende cao-fouten van ChatGPT
Brightmine background

De grenzen van AI: vijf opvallende cao-fouten van ChatGPT

Brightmine resources graphic

Deel:

Gepubliceerd: 22 mei 2025 | door Brightmine

De grenzen van AI: vijf opvallende cao-fouten van ChatGPT

We delen vijf opvallende situaties waarin ChatGPT de plank misslaat bij cao-interpretaties.

1. Missen van belangrijke nuances

Een belangrijke beperking van ChatGPT is dat het systeem niet altijd herkent voor wie bepaalde arbeidsvoorwaarden precies gelden.  Zo mist de tool soms dat een arbeidsvoorwaarde alleen geldt voor een specifieke doelgroep en niet voor iedereen die onder de werkingssfeer van de cao valt.

Een duidelijk voorbeeld zien we in de cao voor het voortgezet onderwijs. In de laatste onderhandelingen is een aantal extra beloningen samengevoegd in de zogenaamde oktobertoelage. ChatGPT is op de hoogte van deze wijziging. Waar de tool de fout mee in gaat is door aan te nemen dat deze toelage geldt voor ‘iedereen in loondienst bij een VO-instelling’. In werkelijkheid is de regeling vooral bedoeld voor niet-onderwijspersoneel. Van het onderwijzend personeel hebben alleen docenten aan het eind van hun salarisschaal er recht op.

2. Complexe rekenregels worden gemist

Het toepassen van voorwaarden is bij uitstek iets waar computers goed in zijn.  Toch blijkt ChatGPT belangrijke voorwaarden weleens over het hoofd te zien bij cao-berekeningen.

In de berekening van het IKB-budget van rijksambtenaren ziet ChatGPT  bijvoorbeeld over het hoofd dat er een ondergrens is. ChatGPT berekent keurig 16,5% van het bruto maandsalaris (€2.336,78), maar mist een cruciale regel: er geldt een ondergrens van €440.

Ook bij de eenmalige uitkering voor ontslagen rijksambtenaren (juli 2025) gaat het mis.  ChatGPT vergeet dat een WW-uitkering na twee maanden daalt naar 70% van het oorspronkelijke salaris. De eenmalige uitkering moet daarvoor worden gecorrigeerd. Ook nadat de AI-tool erop gewezen is, houdt het systeem vol dat de eenmalige uitkering even hoog is als voor een ambtenaar in loondienst.

3. Verwarrende keuzeopties

Een functie waarmee ChatGPT feedback ophaalt is om gebruikers meerdere reacties voor te leggen en te laten kiezen. Dit helpt bij de ontwikkeling van AI, maar voor gebruikers kan het verwarrend zijn, zeker als een van de opties totaal niet klopt.

Een praktijkvoorbeeld: bij de vraag hoeveel werknemers van McCain worden doorbetaald bij ziekte geeft ChatGPT twee opties. De eerste is correct, maar de tweede is volledig onjuist met de suggestie dat werknemers ‘doorgaans’ 80% doorbetaald krijgen.

4. Onjuiste informatie toevoegen

ChatGPT heeft de neiging om extra informatie te geven boven op het antwoord op de vraag die was gesteld. Dit leidt regelmatig tot fouten.

Neem de inlenersbeloning, waarvoor de regels zijn vastgelegd in de uitzend-cao’s van NBBU en ABU. Een van de uitzonderingen waarvoor de inlenersbeloning niet geldt, zijn uitzendkrachten zonder startkwalificatie die een opleiding volgen. ChatGPT geeft correct bevestigend antwoord dat deze groep niet onder de inlenersbeloning valt, maar voegt uit zichzelf de onjuiste informatie toe dat dit maar 52 weken mag. In werkelijkheid kan deze termijn worden verlengd tot de duur van de opleiding.

5. Moeite met tabelinterpretatie

In cao’s is belangrijke informatie vaak in tabelvorm weergegeven. Een arbeidsvoorwaarde geldt bijvoorbeeld voor een bepaalde leeftijdsgroep. Het goed lezen van de betekenis van een tabel is voor veel mensen een uitdaging, maar ook ChatGPT heeft er soms moeite mee.

Een voorbeeld hiervan zien we bij de seniorendagen-regeling van McCain. Vanaf 50 jaar hebben werknemers hier recht op en met elke vijf jaar erbij, stijgt het aantal extra vrije dagen. ChatGPT weet goed te benoemen hoeveel seniorendagen iemand van 55 krijgt, maar snapt niet dat iemand van 58 evenveel seniorendagen krijgt omdat die in dezelfde leeftijdsgroep, 55 tot 60, valt.

Betrouwbare cao-data: de basis voor correcte beslissingen

Hoewel AI-tools zoals ChatGPT indrukwekkend zijn, blijkt uit deze voorbeelden dat accurate cao-interpretatie meer vraagt dan alleen slimme technologie. Voor correcte toepassing van cao-bepalingen is toegang tot betrouwbare, actuele data essentieel.

Brightmine biedt deze zekerheid met het HR & Compliance Center. Met directe toegang tot meer dan 2.000 cao’s, gevalideerd door experts en continu geactualiseerd, neem je beslissingen op basis van betrouwbare data. Onze database, gevoed door een exclusieve samenwerking met de FNV, zorgt ervoor dat je altijd werkt met de juiste informatie.

Misschien vind je dit ook interessant..

Blogs

Grenzen van AI: 5 opvallende cao-fouten van ChatGPT

Hoe betrouwbaar is ChatGPT bij cao’s? Ontdek 5 fouten die aantonen waarom AI en arbeidsvoorwaarden geen vanzelfsprekende match …

Checklists

Checklist: Slimmer recruiten met AI

Slimmer werven met AI? Ontdek de kansen én risico’s van AI in recruitment. Download de gratis checklist met …

Whitepapers

Checklist: Zo zorg je dat HR meebeslist over AI in de organisatie

AI verandert organisaties en werk razendsnel. Als HR-professional speel je een sleutelrol in een mensgerichte en verantwoorde inzet. …