Het laatste nieuws
Algemene voorwaarden
Algemene voorwaardenPrivacystatement
Klachtenregeling
‘Als ik dit op de afdeling vertel, vallen de monden open. Computers die agressie voorspellen? Hoe dan?”, zegt Margo Faay (31), verpleegkundige en beleidsmedewerker bij academisch ziekenhuis UMC Utrecht. Vincent Menger (29), datawetenschapper bij de Universiteit Utrecht, lacht bescheiden.
Hij heeft een algoritme ontwikkeld dat beter dan behandelaars kan voorspellen wat de kans is dat patiënten agressief worden. Een mooie innovatie, vinden medewerkers van de afdeling psychiatrie van het UMC Utrecht. Maar ze worstelen er ook mee: hoe gaan ze het op een ethische manier in de praktijk inzetten?
Academische en topklinische ziekenhuizen door het hele land experimenteren met de voorspellende kracht van data-analyse. Zo schat het UMC Maastricht met een computermodel het risico op zwangerschapsdiabetes en -vergiftiging in. In het Radboud UMC in Nijmegen krijgen patiënten op sommige afdelingen al een persoonlijke risicoscore. Die voorspelt continu of ze de komende vier tot zes uur stabiel blijven, voor- of achteruitgaan.
Er bestaan al algoritmen die het levensgevaar van een patiënt in het ziekenhuis berekenen, de ernst van een telefoontje naar de huisartsenpost en de kans dat een patiënt zelfmoord pleegt. Ziekenhuizen financieren de innovatie voor het grootste deel nog zelf. Zorgverzekeraars tonen zich geïnteresseerd.
Levens redden, ziektes voorkomen of eerder opsporen: de beloftes van data-analyse in de zorg zijn aantrekkelijk. Maar als het om de praktische toepassing gaat, blijven ziekenhuizen en zorginstellingen vaak nog weifelend op de drempel staan. Soms zijn er praktische redenen, zoals de noodzaak voor aanvullend wetenschappelijk onderzoek, maar ook omdat een computer op de doktersstoel ethische bezwaren oproept.
Zo ook in Utrecht. Faay en Menger zitten in een overleggroep die nadenkt over hoe en wanneer het algoritme zal worden ingezet op de afdeling psychiatrie. Het ziekenhuis praat er ook met patiënten over. Een van de vragen die voorligt: zouden zij wel of juist niet willen weten dat het de computer is die hen aanwijst als potentieel agressief?
Het algoritme is een black box, ongelooflijk ingewikkeld. Het heeft zichzelf met drieduizend dossiers geleerd te voorspellen wie van de psychiatrisch patiënten een hoge kans heeft binnen een maand agressief te worden. De computer zocht met kunstmatige intelligentie verbanden in de notities van behandelaars in dossiers. Dat het algoritme werkt, is aangetoond door het behalve in het UMC Utrecht ook in een Rotterdamse GGZ-instelling te valideren. Maar hoe de computer precies tot zijn oordeel komt, bleef raadselachtig.
Een student informatiekunde aan de Universiteit Utrecht heeft daarom tien weken aan een tweede algoritme gewerkt, om inzichtelijk te maken hoe het eerste tot z’n conclusies komt.
„Zal ik het je laten zien?”, zegt Menger tegen Faay. Hij klapt zijn laptop open. „Kijk, deze tabel gaat over een patiënt met een laag risico op agressie. De groene woorden aan de linkerkant zijn, in relatie tot de rest van de tekst, indicatoren voor een laag risico. De rode woorden rechts van de streep staan voor een hoog risico.”
Groen zijn de woorden: ‘genieten’, ‘piekeren’, ‘leven’ en ‘suïcidaal’. Rood: ‘schopt’, ‘gevaar’ en ‘noodmedicatie’.