Steeds vaker duikt kunstmatige intelligentie (AI) op in bestuurlijke besluitvorming, van vergunningsaanvragen tot asielprocedures. De vraag is dan wanneer een digitaal hulpmiddel als AI wordt beschouwd. En welke verantwoordelijkheden daaruit volgen voor transparantie, toetsing en documentatie.
Op 29 oktober 2025 behandelde de rechtbank Groningen twee asielzaken waarin precies deze vragen aan bod kwamen. In het debat stond een interne tool van de IND centraal: de Case Matcher, een systeem dat dossiers vergelijkt om eerdere, soortgelijke zaken te vinden. Wat begon als een technisch detail, groeide tijdens de zitting uit tot een principiële discussie over de juridische status van algoritmische ondersteuning bij overheidsbesluiten.
Grensgeval tussen Ctrl + f-zoekfunctie en AI
Advocate Meijering stelt dat de Case Matcher (die werkt met text-mining technieken zoals TF-IDF) als AI moet worden aangemerkt, omdat deze automatisch documenten rangschikt op relevantie en daarmee de besluitvorming kan beïnvloeden. In de ogen van de landsadvocaat van de IND betreft het slechts een klassieke zoekfunctie met statistische relevantieberekening: geen autonomie en geen aanpassingsvermogen.
De Case Matcher werkt met gevoelige data van heel veel eerdere asielzaken. Als zo’n tool als AI wordt aangemerkt, gelden striktere eisen: het gebruik moet worden gemeld, de werking gedocumenteerd, risico’s vooraf beoordeeld. Wordt deze beschouwd als gewone zoektechnologie, dan vallen deze verplichtingen grotendeels weg. Precies dat maakt classificatie zo belangrijk – en tegelijk zo complex.
Transparantie bij gebruik AI
Tijdens de zitting bleek dat niet met zekerheid kon worden vastgesteld of de Case Matcher daadwerkelijk was gebruikt in een van de behandelde zaken. Dit kwam mede doordat het gebruik van de tool niet standaard wordt vastgelegd in dossiers. Hierdoor blijft voor betrokkenen onduidelijk of en zo ja op welke manier de tool bij hun zaak een rol heeft gespeeld.
In de bredere discussie over de aard van de Case Matcher kwam ook de kwestie van documentatie aan de orde. Advocate Meijering stelde dat de beschikbare informatie over de werking van de tool beperkt te vinden is, wat het moeilijk maakt om te beoordelen of er sprake is van kunstmatige intelligentie in de zin van de Europese AI-verordening.
Deze bevindingen sluiten aan bij een bredere ontwikkeling in de rechtspraak, waarin steeds meer nadruk wordt gelegd op transparantie: burgers moeten kunnen weten hoe algoritmische hulpmiddelen een rol spelen in besluiten die hen raken.
Wat organisaties hiervan kunnen leren
De kwestie raakt niet alleen overheden. Ook private organisaties gebruiken steeds vaker datagedreven of algoritmische hulpmiddelen bij analyses en besluitvorming. De belangrijkste lessen:
- Breng functionaliteit juridisch in kaart. Beschrijf concreet wat een systeem doet en of er sprake is van autonomie of aanpassingsvermogen.
- Leg gebruik en bevoegdheden vast. Wie mag de tool gebruiken, en met welke opleiding of toestemming?
- Voer risicoanalyses op het juiste niveau uit. Niet alleen voor het platform, maar ook voor afzonderlijke modules die beslissingen kunnen beïnvloeden.
- Wees proactief transparant. Licht gebruikers, klanten of burgers op voorhand in wanneer algoritmes of AI-achtige hulpmiddelen worden ingezet.
Tot slot
De rechtbank moet nog uitspraak doen, maar de zaak onderstreept één ding: de grens tussen AI en een ‘gewoon’ hulpmiddel is naast technisch ook juridisch en ethisch van aard. Voor verantwoord gebruik van datagedreven technologie is daarmee niet alleen belangrijk wát een systeem doet, maar ook hóe organisaties daarover verantwoording afleggen.