Technologie trekt steeds verder de spreekkamer in, de school in, de hulpverleningsgesprekken in. Algoritmen analyseren gedragspatronen, signaleren risico’s, koppelen klachten aan diagnoses. Voor professionals in zorg, welzijn en onderwijs roept dat een fundamentele vraag op: wat doet dit met mijn professionele oordeel? Het eerlijke antwoord is: het hangt ervan af wat je met die technologie doet.
AI als verlengstuk van de waarneming
Beoordelen begint met waarnemen. Je ziet iets, je hoort iets, je merkt iets op, en pas daarna begin je te interpreteren en te wegen. Die eerste stap, de waarneming, is altijd beperkt. Je hebt maar twee ogen, één perspectief, en een werkgeheugen dat niet alles tegelijk kan vasthouden.
Hier kan AI iets toevoegen wat mensen van nature lastig vinden: het herkennen van patronen in grote hoeveelheden informatie. Een algoritme dat honderden dossiers heeft ‘gelezen’, ziet verbanden die een individuele professional na tien jaar ervaring misschien intuïtief aanvoelt, maar nu ook expliciet benoemt. Dat is winst, mits je het zo gebruikt: als aanvulling op je eigen waarneming, niet als vervanging ervan.
AI kan ook helpen bij de volgende stap: het koppelen van een waarneming aan kennis. Welke factoren spelen doorgaans een rol in situaties als deze? Wat zegt de literatuur? Welke interventies bleken effectief? Een goed ingezet systeem fungeert dan als een zeer goed geïnformeerde gesprekspartner, één die snel is, maar geen belang heeft bij de uitkomst.
Waar het professionele oordeel begint
Maar hier stopt de meerwaarde van AI. Of zou die moeten stoppen. Want beoordelen is meer dan waarnemen en patronen herkennen. Het gaat uiteindelijk om een standpunt innemen over deze situatie, met deze persoon, op dit moment. En dat standpunt vraagt iets wat een algoritme niet heeft: een normatief kader, gevoed door professionele ervaring, ethische overweging en verantwoordelijkheidsbesef.
In de termen van Molander: AI kan de beoordelingsvrijheid zichtbaar maken, het brengt de ruimte in beeld. Maar beoordelingsbekwaamheid, het vermogen om binnen die ruimte een beredeneerd standpunt in te nemen dat je kunt verantwoorden, is en blijft het domein van de professional zelf. Dat is geen nostalgisch pleidooi voor de almachtige deskundige. Het is een normatieve stelling over waar verantwoordelijkheid hoort te liggen. Een algoritme kan niet worden aangesproken. Een professional wel.
Het risico van gemak
De grootste bedreiging voor professionele autonomie is dan ook niet dat AI te veel overneemt. Het is dat professionals zelf de verleiding niet weerstaan om het te laten overnemen. Omdat het sneller is. Omdat het zekerder lijkt. Omdat een computergegenereerde uitkomst makkelijker te verdedigen is dan een eigen oordeel. Maar wie zijn standpunt delegeert aan een systeem, oefent geen beoordelingsbekwaamheid meer, hij voert uit. En uitvoeren is iets anders dan professioneel handelen.
Een nieuw soort bekwaamheid
Technologie vraagt daarom niet minder van professionals, maar anders. De professional van nu moet niet alleen kunnen waarnemen en oordelen, maar ook kunnen beoordelen wat het algoritme doet. Welke aannames zitten erin? Welke data zijn gebruikt? Klopt de uitkomst met wat ik zelf waarneem. En als dat niet zo is, wat betekent dat dan? Dat is een nieuwe laag van beoordelingsbekwaamheid: de vaardigheid om technologie kritisch te gebruiken zonder haar te wantrouwen of blind te vertrouwen.
Professionele autonomie verdwijnt niet door AI. Maar ze wordt kwetsbaarder als professionals niet leren wat het verschil is tussen een hulpmiddel en een beslisser.
