Niet alle situaties in het sociaal domein laten zich eenduidig oplossen. Soms ontbreekt duidelijk juridisch of beleidsmatig houvast. Soms spreken rechtsbronnen elkaar tegen, overlappen beleidskaders of ontbreekt relevante jurisprudentie. In zulke complexe casuïstiek werken beslissers en beleidsmakers met onvolledige informatie. In deze blog laat ik zien hoe AI in die context geen directe antwoorden biedt, maar voorspellingen genereert die inzicht geven in mogelijke handelingsrichtingen – een cruciale ondersteuning bij besluiten onder onzekerheid.
Bij complexe casuïstiek stuiten ambtenaren op structurele onzekerheid. De wet biedt geen duidelijk kader of laat ruimte voor interpretatie. Beleidsregels uit verschillende domeinen sluiten niet goed op elkaar aan, of vormen geen logisch geheel. Of een rechterlijke uitspraak suggereert één richting, terwijl maatschappelijke ontwikkelingen een andere kant op wijzen.
Voorbeelden doen zich voor bij multiproblematiek met tegenstrijdige belangen, bij innovatieve of experimentele voorzieningen, of bij nieuwe maatschappelijke fenomenen waarvoor de wetgever nog geen regulering heeft ingericht.
Een beslisser krijgt te maken met een aanvraag die niet past binnen de bestaande kaders. Denk aan een jongere die intensieve begeleiding vraagt op grond van de Jeugdwet, terwijl sprake is van complexe gedragsproblematiek én uithuisplaatsing via civiel recht. De grenzen tussen vrijwillige jeugdhulp en jeugdbescherming vervagen. De wet geeft geen helder antwoord en beleid biedt geen dekking voor deze combinatie.
Een AI-systeem kan in zulke gevallen scenario’s genereren op basis van vergelijkbare situaties uit het verleden. Het systeem identificeert patronen in eerdere besluiten, relevante beleidswijzigingen en gerechtelijke uitspraken. Daarmee helpt het de beslisser om mogelijke gevolgen van verschillende handelingsopties in kaart te brengen. Het systeem voorspelt bijvoorbeeld hoe groot de kans is dat een bepaalde keuze leidt tot bezwaar of beroep, of welke maatschappelijke effecten vergelijkbare beslissingen eerder opleverden.
Zo fungeert AI als analytisch kompas. De beslisser blijft verantwoordelijk voor de uiteindelijke afweging, maar beschikt over meer zicht op mogelijke uitkomsten en risico’s.
Voor beleidsmakers ontstaat complexiteit wanneer maatschappelijke problemen of politieke opdrachten botsen met bestaande regelgeving. Stel: een gemeenteraad wil maatwerk bieden aan jongvolwassen statushouders via een aparte participatieregeling, maar de Participatiewet voorziet niet in die uitzondering. Tegelijk geeft de landelijke wetgever weinig ruimte voor experimenten.
AI kan dan beleidsontwikkelaars ondersteunen door beleidsvoorbeelden uit andere gemeenten te analyseren, scenario’s te genereren op basis van historische beleidskeuzes, en mogelijke juridische risico’s of uitvoeringsproblemen te voorspellen. Het systeem herkent bijvoorbeeld dat een vergelijkbare regeling in een andere gemeente leidde tot juridische klachten, of juist tot verhoogde arbeidsparticipatie.
Beleidsmakers kunnen die voorspellingen gebruiken in gesprekken met college en raad: niet als blauwdruk, maar als inzicht in keuzeruimte, risico’s en verwachte effecten.
Een gezin kampt met armoede, gezondheidsproblemen, schooluitval van kinderen en dreigende huisuitzetting. De hulpvraag raakt de Wmo, Jeugdwet, Participatiewet én gemeentelijk armoedebeleid. Geen enkele wet of beleidskader biedt een totaaloplossing. Een AI-systeem kan eerdere trajecten van vergelijkbare huishoudens analyseren, patronen in succesvolle interventies zichtbaar maken, en scenario’s opstellen: bijvoorbeeld “hoog intensieve begeleiding met schuldsanering leidt tot stabilisatie binnen 12 maanden”, of “traditionele hulpstructuur zonder integrale regie leidt tot terugval en escalatie”.
De ambtenaar krijgt geen kant-en-klaar antwoord, maar wel onderbouwde scenario’s. Die helpen bij het kiezen van een richting – bijvoorbeeld het instellen van een casusregisseur of het tijdelijk afwijken van standaardprocedures.
AI genereert geen waarheid, maar zicht op mogelijkheden
In complexe casuïstiek verwacht niemand dat AI de oplossing dicteert. Onzekerheid laat zich niet wegautomatiseren. AI creëert wél structuur in onzekerheid. Door veel data tegelijk te analyseren, brengt het systeem verbanden aan die anders verborgen blijven. Daardoor ontstaan hypothesen, scenario’s en keuzemogelijkheden. De ambtenaar hakt de knoop door, maar doet dat met beter zicht op de implicaties.
AI-scenario’s brengen kansen en risico’s in beeld, maar nemen de politieke en ethische verantwoordelijkheid niet over. Beleidskeuzes over kwetsbare doelgroepen, beperkte middelen of onrechtvaardige uitkomsten vereisen altijd publieke verantwoording. AI-gestuurde voorspellingen kunnen helpen bij het nemen van besluiten, maar vervangen nooit de democratische afweging over wat wenselijk en aanvaardbaar is.
In deze drieluik heb ik drie typen casuïstiek besproken:
In simpele casuïstiek versnelt AI het werk door standaardbesluiten en beleidsprocessen te automatiseren.
In gecompliceerde casuïstiek verbetert AI de kwaliteit van het werk door juridische kennis en context aan te vullen.
In complexe casuïstiek voorspelt AI mogelijke uitkomsten om besluiten en beleid richting te geven bij fundamentele onzekerheid.
Gemeenten die AI verstandig inzetten, vergroten de effectiviteit van hun ambtenaren en versterken tegelijkertijd de legitimiteit van hun handelen. Niet door de menselijke maat te vervangen, maar door die maat beter te onderbouwen en toe te passen.
Waar zie jij als ambtenaar kansen voor AI om werk te versnellen, ondersteunen of verlichten? En bij welke taken twijfel je juist of AI wel van toegevoegde waarde is, of zelfs belemmerend kan werken?
Laat een reactie achter; met jouw input krijgen we beter inzicht in wat er écht speelt op de werkvloer en waar behoefte aan is.