Niet sneller — maar wijzer

Over AI, de adoptie-illusie en wat we eigenlijk zouden moeten meten

Instituut voor Toegepaste Filosofie  ·  Thema: AI, werk & organisatie  ·  Leestijd: ± 10–15 min

Niet sneller maar wijzer – AI en de menselijke maat

Veel organisaties gebruiken AI. Maar bijna geen enkele organisatie weet of ze het ook goed doet. Niet efficiënter. Niet sneller. Maar goed. Dit artikel biedt een denkmodel voor HR-professionals en bestuurders die de regie willen houden over verantwoorde AI-adoptie.

De adoptie-illusie

Veel organisaties meten het succes van AI via gebruik: hoeveel mensen gebruiken het, hoe vaak, en hoeveel tijd besparen we? Dat lijkt logisch. Maar het is onvoldoende.

In de praktijk — in ziekenhuizen, beleidsorganisaties en HR-afdelingen — zien we steeds hetzelfde patroon: adoptie is hoog, maar kritische evaluatie van AI-output blijft achter. Een groot deel van de professionals gebruikt de tools. Een aanzienlijk kleiner deel stelt de output actief ter discussie.

Die kloof noem ik de adoptie-illusie. Hoe groter de adoptie zónder kritisch oordeel, hoe groter het risico. AI helpt dan niet meer — het vervangt ongemerkt het professioneel oordeel van mensen die het eigenlijk beter weten.

Als je alleen meet wat makkelijk meetbaar is, organiseer je precies dat gedrag.

Twee reflexen — en een keuze

Achter elk AI-initiatief schuilt een impliciete keuze. Organisaties kunnen AI inzetten om de dingen sneller te doen, of om de goede dingen te doen. Beide zijn nodig — maar zonder bewust tegenwicht wint bijna altijd de eerste.

Technologie versnelt wat er al is. Als snelheid de norm wordt, verschuift zorgvuldigheid naar de achtergrond. Als systemen leidend worden, verschuift verantwoordelijkheid. Als output centraal staat, raakt betekenis uit beeld.

Een dashboard dat dit bewaakt is daarom geen technisch controlemiddel. Het is een manier om de morele ruimte van professionals te beschermen — de ruimte om te twijfelen, af te wijken, en verantwoording te nemen.

Vier niveaus: van symptoom naar betekenis

Om AI écht te beoordelen, moeten we anders meten. Niet alleen output — maar ook wat AI doet met professionals, met besluitvorming en met publieke waarden. Daarvoor helpt een denkmodel met vier niveaus. De meeste organisaties blijven hangen op het eerste. De echte vragen zitten daarboven.

1. Operationeel — wat gebeurt er nu?

Werkt het systeem? Hoe vaak zitten er fouten in? Hoeveel tijd besparen we? Dit is wat organisaties al meten — en terecht. Maar een lage foutmarge is géén garantie voor veiligheid als tegelijkertijd het kritisch oordeel verdwijnt. Let ook op 'workslop': AI-output van onvoldoende kwaliteit die handmatige correctie vereist en zo de beloofde tijdwinst wegvreet.

2. Tactisch — blijft het professioneel oordeel overeind?

Wijken mensen nog af van AI-advies? Durven ze te corrigeren? Waar gaat tijdwinst eigenlijk naartoe? Hier ontstaan de eerste sluipende risico's.

Automation bias: bij twijfelgevallen gaan professionals zelden meer af van eigen oordeel — precies waar dat het meest nodig is. En de intensiveringsval: tijdwinst wordt niet omgezet in ruimte, maar in meer taken. Efficiëntie zonder beleid leidt zelden tot meer ademruimte.

3. Strategisch — wat bouwen we op, of af?

Ontwikkelen professionals zich nog? Blijft er ruimte om het vak te leren? Versterkt AI het werk, of holt het het uit?

Een klassiek risico: AI neemt routinetaken over — maar dat zijn juist de taken waar mensen het vak leren. Wat vandaag efficiënt lijkt, kan morgen een tekort aan expertise zijn. De waarde van professionals verschuift intussen naar empathie, complex oordeel en verantwoording — vaardigheden die AI niet vervangt. Volgen onze functieprofielen dat?

4. Normatief — doen we nog het goede?

Dit niveau wordt het minst gemeten — en is tegelijk het belangrijkst. Draagt AI bij aan rechtvaardigheid? Blijft professioneel oordeel leidend? Vertrouwen mensen het systeem?

Hier gaat het om wat vaak onzichtbaar blijft: moral distress — weten wat goed is, maar het niet kunnen doen door systeembeperkingen — is de sterkste verborgen voorspeller van uitstroom. En algoritmische bias: historische data reproduceert bestaande ongelijkheden. Wie is verantwoordelijk als een algoritme systematisch onrechtvaardig uitpakt?

Een AI-dashboard is geen technisch instrument. Het is een manier om de morele ruimte van professionals te bewaken.

Wat AI werkelijk verandert

AI verandert niet alleen wat we doen. Het verandert wat we als goed werk gaan zien.

Filosoof Charles Taylor zou dit een verschuiving in onze 'moral horizon' noemen: niet alleen ons gedrag verandert, maar onze maatstaf voor wat telt. Karl Weick zou het framen als een sensemaking-probleem: als het systeem altijd klopt, verleren we hoe we zelf betekenis geven aan complexe situaties. En Michel Foucault zou wijzen op de normaliserende werking van algoritmen: wat het systeem als normaal markeert, wordt gaandeweg de norm.

Dat klinkt abstract. Maar de praktijk is concreet: als snelheid de norm wordt, verdwijnt zorgvuldigheid naar de achtergrond. Als systemen leidend worden, verschuift verantwoordelijkheid. Als output centraal staat, raakt betekenis uit beeld.

Praktische vertaling: een organisatie die alleen meet hoeveel mensen AI gebruiken, stuurt onbedoeld op gebruik zonder oordeel. Een organisatie die ook meet of professionals nog afwijken, stuurt op kalibreerd vertrouwen — precies wat verantwoorde AI vraagt.

Wat betekent dit buiten het ziekenhuis?

De ziekenhuiscasus is illustratief — maar de patronen zijn universeel. In HR-afdelingen, beleidsorganisaties en uitvoeringsinstanties zien we precies dezelfde mechanismen, onder andere namen.

Moral distress in HR en overheid: een HR-professional die tegen een AI-selectiescore in wil gaan, maar daarvoor geen ruimte voelt. Een beleidsmedewerker die twijfelt aan een modeluitkomst, maar geen taal heeft om dat te benoemen.

Automation bias in beleid: een beleidsadvies dat wordt overgenomen zonder tegenspraak omdat "het model het ook zegt". Een verzuimanalyse die als feit wordt behandeld terwijl het een voorspelling is.

De intensiveringsval in de publieke sector: AI maakt snellere verslaglegging mogelijk — maar de ruimte die vrijkomt, wordt gevuld met meer beleid, meer rapportages, meer verantwoording. Meer doen in plaats van beter doen.

De vraag is niet of dit in jouw organisatie speelt. De vraag is: zie je het al?

Vier vragen die meer zeggen dan welke KPI ook

In plaats van direct een dashboard te bouwen, kun je beginnen met vier vragen. Ze zijn eenvoudig — maar het antwoord erop legt precies bloot waar de adoptie-illusie zit.

  1. Waar meten we gebruik — en noemen we dat succes?
  2. Waar verdampt tijdwinst in méér werk in plaats van meer ruimte?
  3. Waar leren mensen hun vak minder goed — omdat AI het voor ze doet?
  4. Waar komt de menselijke maat onder druk te staan — zonder dat iemand dat hardop zegt?

Deze vragen zijn soms confronterender dan cijfers. Dat is precies de bedoeling.

Vertragen als professionele vaardigheid

AI nodigt uit tot versnelling. Meer doen, sneller beslissen, efficiënter werken. Maar juist daarom wordt iets anders cruciaal: het vermogen om te vertragen.

Niet om minder te doen. Maar om beter te zien: wat er gebeurt, wat er verschuift, en wat we misschien verliezen.

Een dashboard is daarin een hulpmiddel — geen doel. Het gaat er niet om een perfecte set KPI's te hebben. Het gaat erom dat de organisatie de vragen blijft stellen die het systeem niet stelt.

Want als je alleen meet wat makkelijk meetbaar is, organiseer je precies dat gedrag. En de rest — zorgvuldigheid, autonomie, rechtvaardigheid — verdwijnt niet ineens. Het verdampt langzaam, onzichtbaar, terwijl de dashboards groen blijven.

De vraag is uiteindelijk niet wat AI kan. De vraag is: wat voor organisatie willen wij zijn?

Wil je hiermee aan de slag?

Gebruik dit artikel als reflectiekader in je team of organisatie. Begin niet met technologie — begin met de vraag: waar willen wij ruimte houden, en waarvoor?

De vier vragen hierboven zijn een goede start. Niet als checklist, maar als gespreksopener.

Literatuur

  1. Acemoglu, D. & Restrepo, P. (2022). Tasks, automation, and the rise in US wage inequality. Econometrica, 90(5), 1973–2016.
  2. Austin, W. et al. (2017). Moral distress in healthcare practice: The situation of nurses. HEC Forum, 29(1), 1–15.
  3. Bandura, A. (1997). Self-efficacy: The exercise of control. W.H. Freeman.
  4. Corley, M.C. (2002). Nurse moral distress: A proposed theory and research agenda. Nursing Ethics, 9(6), 636–650.
  5. Foucault, M. (1977). Discipline and Punish. Pantheon Books.
  6. Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
  7. Taylor, C. (1989). Sources of the Self: The Making of the Modern Identity. Harvard University Press.
  8. Topol, E.J. (2019). High-performance medicine: The convergence of human and artificial intelligence. Nature Medicine, 25(1), 44–56.
  9. Weick, K.E. (1995). Sensemaking in Organizations. SAGE Publications.
Terug naar artikelen