AI-hype: de toezichthouder moet nu twijfelen

De ‘goudkoorts’ in de zorg is begonnen. Niet met schoffels en zeven, maar met algoritmes en datastromen. Elke zorgorganisatie wordt overspoeld met glimmende presentaties waarin ‘Artificial Intelligence’ wordt gepresenteerd als de heilige graal, dé oplossing voor personeelstekorten, wachtlijsten en zelfs de begroting. Als toezichthouder, met de nodige jaren ervaring in het besturen en overzien van complexe organisaties, zie ik de onvermijdelijke vlekken op dit glanzende blazoen.

Mijn collega-toezichthouders kennen mij als enthousiaste advocaat van de mogelijkheden van AI. Daarom in deze column eens een ander, kritisch geluid van mijn kant. Mijn stelling is direct en onverbloemd: een toezichthouder die nu niet twijfelt en een gezonde dosis reserves inbouwt, verzaakt zijn plicht.

Gevaar van de digitale puber

AI is geen toverstaf, maar een digitale puber. Briljant, vol potentie en razendsnel, maar ook onvoorspelbaar, humeurig en met een ernstig gebrek aan levenservaring – of in dit geval, historische en ethische context. Het gevaar ligt in de collectieve angst om de boot te missen, de beruchte FOMO, die leidt tot het klakkeloos omarmen van technologieën die de fundering van onze zorg nog niet aankunnen.

Terwijl de Raad van Bestuur droomt van de ‘AI-dokter’, vechten de verpleegkundigen nog steeds met archaïsche EPD-systemen die elkaar niet verstaan. Dit is de ironie: we willen een Tesla, maar onze garage staat vol met T-Fords die al jaren op lekke banden rijden. Laten we eerst de banden plakken, of beter nog: de wegen verbeteren.

De toezichthouder dient nu de kritische stem te zijn die vraagt: wat is de werkelijke total cost of ownership (TCO)? En, nog belangrijker, wie is aansprakelijk wanneer de digitale puber een kapitale fout maakt? Bij een menselijke fout is er een tuchtraad; bij een algoritme is er slechts een vage leveranciersclausule.

Concrete suggesties & vragen

U bent de hoeder van continuïteit, kwaliteit en de maatschappelijke opdracht. De hoogdravende AI-plannen vereisen daarom niet uw applaus, maar uw argwaan. Hier zijn zeven concrete suggesties en vragen die u direct aan uw bestuur kunt voorleggen:

· De data-audit eis: vraag niet wat de AI doet, maar waarop het is getraind. Eis een onafhankelijke audit naar de kwaliteit en inclusiviteit van de data. Vuilnis erin, vuilnis eruit.

· Eis de ethische roadmap: vraag specifiek naar de protocollen bij bias en uitsluiting. Hoe wordt gewaarborgd dat een algoritme niet een bepaalde demografische groep systematisch negeert of achterstelt? · Toekomstbestendigheid versus vendor lock-in: hoe voorkomen we dat we na een pilot van drie jaar volledig afhankelijk zijn van één dure leverancier? Dwing het bestuur na te denken over interoperabiliteit en open standaarden.

· Het dé-skilling risico: vraag hoe de kennis en de intuïtie van de professional behouden blijven. Een assistent-chauffeur is handig, maar we willen geen zorgverleners die vergeten hoe ze zelfstandig moeten rijden.

· De ‘fout’-vraag: presenteer een ethisch dilemma waarbij de AI faalt en er menselijke schade is. Vraag wie de verantwoordelijkheid draagt in de keten: de leverancier, de bestuurder, de professional of de toezichthouder zelf? · Het opleidingsbudget voor gebruikers: hoeveel wordt er structureel geïnvesteerd in de kritische digitale vaardigheden van de eindgebruikers (artsen, verpleegkundigen)? AI is waardeloos als het niet correct en met inzicht wordt toegepast door het zorgpersoneel.

· Zicht op regelgeving en certificering: is het bestuur aantoonbaar bezig met de aankomende Europese AI Act en de NEN-normen voor medische technologie? Vraag om een ‘compliance-scan’ voordat er grootschalig geïmplementeerd wordt.

De taak van de toezichthouder is in essentie simpel: de kortetermijnhype temperen met wijsheid op lange termijn. We moeten innoveren, absoluut, maar dan wel selectief en gericht. Onze rol is niet het afschieten van elke AI-raket, maar het aanwijzen van de lanceringen die de grootste, bewezen impact hebben op de zorgkwaliteit en efficiëntie, en deze te versterken.

Patiëntveiligheid en ethiek zijn geen details die we via een software-update corrigeren. We zijn er om de organisatie te beschermen tegen blinde ambitie, zodat de écht waardevolle digitale stappen worden gezet en versterkt. De toekomst van de zorg is digitaal, maar de wijsheid – en uw twijfel – blijven analoog.

Selectieve inzet, gevoed door wantrouwen, is medicatie tegen digitale mislukkingen.