AI wordt gezien als een technologie die organisaties kan helpen te innoveren. Bijvoorbeeld door processen sneller of slimmer te maken, of door compleet nieuwe, AI-gedreven diensten te leveren. Om het potentieel van AI volledig te benutten, dient de implementatie ervan wel verantwoord te gebeuren.
Dit om te voorkomen dat potentiële voordelen teniet worden gedaan door de risico’s. Een handige tweedeling helpt die risico’s in kaart te brengen: AI Safety en AI Security.
AI Safety
AI Safety gaat over risico’s die ontstaan terwijl het AI-systeem doet waarvoor het bedoeld is. Een belangrijk risico is misalignment: dat AI stuurt op een verkeerde maatstaf of een maatstaf die geen recht doet aan de complexe werkelijkheid. Als een triage-assistent bijvoorbeeld wordt afgerekend op ‘snel afhandelen’, kan deze mensen te snel naar een standaardroute of zelfzorgadvies sturen. Met als gevolg dat klachten later mogelijk verergeren, er meer herhaalcontacten komen en professionals alsnog extra werk krijgen. Op papier lijkt het proces efficiënter, in de praktijk nemen de zorgvraag en onrust juist toe.
Andere safety-risico’s zijn bias en model drift. Bias betekent dat AI ongelijkheid uit het verleden overneemt, bijvoorbeeld doordat sommige groepen in de data vaker een andere route of minder vervolgzorg kregen. Dit kan onbedoeld verschillen in toegang of kwaliteit vergroten, met klachten, reputatieschade en risico op non-compliance als gevolg.
Model drift – dat AI minder goed werkt in een nieuwe context – hangt hiermee samen. Dit doet zich bijvoorbeeld voor wanneer protocollen veranderen, het EPD anders registreert of de patiëntpopulatie verschuift. Hierdoor kunnen fouten langzaam ‘oplopen’, bijvoorbeeld verkeerde prioritering, minder goede adviezen en uiteindelijk meer uitzonderingen die handmatig moeten worden opgelost.
AI Security
AI Security betreft de risico’s die zijn gerelateerd aan misbruik en aanvallen: een kwaadwillend iemand probeert AI iets te laten doen wat juist niet de bedoeling is. Bijvoorbeeld via prompt injection of jailbreaks met slim geformuleerde tekst een patiëntportaalchatbot verleiden om interne werkinstructies te herhalen of privacyregels te omzeilen. Hierdoor kan gevoelige informatie uitlekken of kunnen patiënten verkeerde verwachtingen krijgen van beleid en procedures.
Een ander voorbeeld is data poisoning oftewel datavervuiling, bijvoorbeeld door opzettelijk een fout toe te voegen aan een werkinstructie. Zo’n fout kan vervolgens op grote schaal door het AI-systeem worden verspreid. Ten slotte het risico van model extraction: dat een externe partij probeert te achterhalen hoe uw systeem werkt of gevoelige patronen en informatie uit het systeem probeert af te leiden. Dit verhoogt kans op toekomstige, gerichte aanvallen.
Mogelijke implicaties
Als organisaties het onderscheid tussen AI Safety en AI Security scherp hebben, kunnen zij gerichter ingrijpen. Dit op basis van twee aparte risicobeoordelingen: één voor de ontwerpkwaliteit en systeemimpact, en één voor de weerstand tegen misbruik. Daarbij hoort ook een duidelijke rolverdeling: wie bewaakt wat het systeem doet, wie reageert bij incidenten, en wie bewaakt leverancierskeuzes en updates. Op die manier kan AI daadwerkelijk functioneren als veilige en effectieve strategische asset.
Aan de slag
Benieuwd hoe uw organisatie AI zowel verantwoord als weerbaar kan inzetten? Berenschot helpt met een strategische scan die uw kansen en kwetsbaarheden zichtbaar maakt. Neem voor meer informatie contact op met een van onze adviseurs.