Een financieel medewerker van een grote zorginstelling ontvangt een videogesprek van de CFO. De stem is herkenbaar, het gezicht komt overeen, de urgentie is voelbaar. Er moet direct €180.000 worden overgemaakt voor een vertrouwelijke overname. De medewerker twijfelt even, maar herkent collega’s op de achtergrond in het gesprek. Het bedrag wordt overgemaakt. Pas uren later blijkt dat de CFO op vakantie was. Het videogesprek? Volledig nagebootst met AI. De collega’s? Deepfakes. Het geld? Onvindbaar.
Dit is geen sciencefiction. In Hongkong verloor een multinational in 2024 ruim 25 miljoen dollar aan een vergelijkbare aanval. In Singapore gebeurde hetzelfde in maart 2025. En Nederlandse zorginstellingen? Die zijn het volgende doelwit.
Zorgbestuurders kennen de klassieke dreigingen: ransomware die systemen gijzelt, phishing-mails met valse links, malware die data steelt. Maar er is een nieuwe generatie aanvallen gaande. Onderzoek toont een toename van 80% in AI-gedreven fraudepogingen. Aanvallen die niet meer draaien om technische kwetsbaarheden, maar om het manipuleren van vertrouwen. Aanvallen waarbij menselijke zintuigen niet meer te vertrouwen zijn.
De zorg is bijzonder kwetsbaar. Vertrouwen is de basis van zorgrelaties. Hiërarchie is duidelijk aanwezig. Urgentie is dagelijks werkelijkheid. En 24/7 operaties betekenen dat beslissingen onder tijdsdruk worden genomen. Precies die kenmerken maken zorginstellingen aantrekkelijk voor AI-gedreven fraude.

Vier AI-dreigingen die zorginstellingen nu treffen
AI-gegenereerde phishing: van spam naar persoonlijke overtuiging
Traditionele phishing was te herkennen. Spelfouten, vreemde zinnen, generieke aanhef. Medewerkers leerden deze signalen herkennen. Maar die tijd is voorbij.
Moderne AI-phishing is persoonlijk. Criminelen analyseren LinkedIn-profielen, social media, openbare persberichten. Ze weten wie met wie samenwerkt. Ze kennen projectnamen, leveranciers, organisatiestructuur. En AI schrijft berichten die perfect aansluiten bij deze context.
Een voorbeeld: een verpleegkundige ontvangt een mail van ‘de afdelingshoofd’ over een urgent protocol voor een patiënt. De naam klopt, de signatuur is correct, de taalgebruik is precies zoals het afdelingshoofd altijd schrijft. Het verzoek om in te loggen via een link lijkt legitiem. Maar de link leidt naar een nagemaakte inlogpagina. Inloggegevens worden gestolen. Toegang tot patiëntendossiers is een feit.
De schaal is het echte probleem. Waar een mens misschien tien phishing-mails per dag kan schrijven, genereert AI duizenden varianten. Getest op effectiviteit. Aangepast op basis van wie wel en niet klikt. Voortdurend lerend.
Detectie is vrijwel onmogelijk geworden. Geen spelfouten meer. Perfecte grammatica. Juiste terminologie. Volgens PwC is cybercriminaliteit, waaronder imitatie via deepfakes, nu de meest gemelde vorm van fraude in Europa. En de traditionele email-filters? Die herkennen AI-teksten niet als verdacht.
CEO-fraude met AI-stemklonen
De telefoon gaat. De bestuurder aan de lijn. De stem is onmiskenbaar. Het verzoek is urgent: een vertrouwelijke betaling voor een overname die volgende week bekendgemaakt wordt. Absolute geheimhouding vereist. “Regel dit direct, ik vertrouw op je discretie.”
Voor een financieel medewerker is dit een dilemma. De procedure zegt: altijd dubbele autorisatie. Maar dit is de bestuurder zelf. En urgentie is geen uitzondering in de zorg. De betaling wordt gedaan.
De technologie achter deze aanval is beangstigend toegankelijk. Drie seconden audio volstaat om een stem te klonen met 85% nauwkeurigheid. Die drie seconden? Die staan online. In openbare speeches, video’s op de website, podcasts, interviews. Publiek toegankelijk materiaal wordt het wapen tegen de organisatie.
De psychologie maakt het effectief. Autoriteit werkt. Een leidinggevende tegenspreken voelt ongemakkelijk. Urgentie dwingt tot actie. En vertrouwen in een bekende stem ondermijnt kritisch denken.
Nederlandse zorginstellingen melden een toename van deze aanvallen bij Z-CERT. De gemiddelde financiële schade? €250.000 per succesvol incident. Maar de reputatieschade is vaak groter. Hoe leg je aan patiënten, toezichthouders en de media uit dat je geld overmaakte naar criminelen omdat je dacht dat je eigen bestuurder belde?
Deepfake video in zakelijke communicatie
Video-calls voelden veilig. Je ziet de persoon. Je hoort de stem. Dat kan niet nep zijn. Kon niet nep zijn. Tot bleek dat het wel kan.
Real-time deepfakes zijn nu mogelijk. Technologie kan live video manipuleren. Een aanvaller hoeft niet meer vooraf opgenomen video’s te maken. Ze kunnen tijdens een videogesprek het gezicht vervangen, de stem klonen, en natuurlijk reageren op vragen.
Voor de zorg creëert dit specifieke risico’s. Telehealth groeit. Videoconsultaties met patiënten zijn normaal geworden. Wat als een crimineel zich voordoet als arts? Medische adviezen geeft? Recepten ‘voorschrijft’? De juridische en medische aansprakelijkheid is enorm.
Zakelijke communicatie met leveranciers, accountants, consultants gebeurt steeds vaker via video. Een nep-leverancier die contracten afsluit. Een valse consultant die gevoelige informatie vraagt. Een vervalste accountant die financiële data opvraagt. De mogelijkheden zijn eindeloos.
AI-manipulatie van identiteitsverificatie
Hybride werken is standaard geworden. Nieuwe medewerkers worden remote aangenomen. Leveranciers werken op afstand. Identiteitsverificatie gebeurt digitaal.
En daar ligt het probleem. AI kan nu identiteitsbewijzen vervalsen die niet van echt te onderscheiden zijn. Foto’s genereren die biometrische systemen goedkeuren. Video-identificatie manipuleren zodat de verkeerde persoon toegang krijgt.
Een concreet scenario: een zorginstelling neemt een nieuwe IT-beheerder aan. Remote sollicitatiegesprekken via video. Identiteitsbewijs wordt gescand en goedgekeurd. Contracten worden getekend. Toegang tot systemen wordt verleend. Maar de persoon achter de camera is niet degene op het identiteitsbewijs. De toegang wordt misbruikt. Patiëntgegevens worden gestolen. En de schade is aangericht voordat het opvalt.
Dit is geen theorie. Ook banken melden toenemende pogingen om accounts te openen met AI-gegenereerde identiteiten. Zorginstellingen moeten zich realiseren dat hetzelfde risico geldt voor personeels- en leveranciersmanagement.
Waarom traditionele beveiliging faalt tegen AI-aanvallen
Menselijke detectie is niet meer betrouwbaar
Jarenlang werd medewerkers geleerd: let op spelfouten, controleer de afzender, herken verdachte taalgebruik. Die training is nu waardeloos. Deepfakes zijn te goed geworden. 91% van organisaties verwacht een toename van AI-aanvallen, maar slechts 26% kan ze herkennen.
Cognitieve bias speelt een rol. Mensen willen geloven wat ze zien en horen. Als het eruitziet als de bestuurder en klinkt als de bestuurder, dan is het de bestuurder. Ons brein maakt die aanname automatisch.
Tijdsdruk in de zorg versterkt dit. Een arts die tijdens een spoedopname een dringend verzoek krijgt, heeft geen tijd om kritisch te zijn. Urgentie is geen uitzondering in de zorg, het is de norm.
Technologie loopt achter de aanvallers
Er is een wapenwedloop gaande tussen generatieve AI en detectie-AI. De aanvallers lopen voor. Elke keer dat detectie beter wordt, worden de deepfakes realistischer.
Legacy systemen in de zorg maken het erger. Email-filters die ontworpen zijn om spam te herkennen, falen bij AI-gegenereerde teksten. Deze teksten zijn perfect: grammaticaal correct, contextueel relevant, persoonlijk.
Voice-authenticatiesystemen zijn niet ontworpen voor stemklonen. Als de kloon 85% overeenkomt met het origineel, wordt de verificatie goedgekeurd. Video-verificatie systemen zoeken naar bepaalde patronen: knipperen, hoofdbewegingen, huidtextuur. Moderne deepfakes repliceren deze patronen perfect.
Awareness-training is achterhaald
De standaard awareness-training werkt niet meer. “Herken phishing aan spelfouten” – AI maakt geen spelfouten. “Controleer de afzender” – AI imiteert exacte emailadressen.
Nieuwe training is vereist. Niet gebaseerd op visuele herkenning, maar op procedurele verificatie. Niet “herken het neppe”, maar “verifieer het echte”. Een fundamenteel andere aanpak die tegen menselijke instincten ingaat.
Cultuur in zorg werkt tegen beveiliging
De zorgcultuur is gebouwd op vertrouwen. Die cultuur is essentieel voor goede zorg. Maar het is ook een kwetsbaarheid. Hiërarchie speelt een rol: een financieel medewerker die de bestuurder terug moet bellen om een verzoek te verifiëren, voelt zich ongemakkelijk.
Urgentie is dagelijkse realiteit. In de zorg zijn veel verzoeken daadwerkelijk urgent. Medewerkers zijn getraind om snel te handelen. Criminelen misbruiken dat door valse urgentie te creëren. Beleefdheid werkt ook tegen beveiliging: iemand terugbellen om te verifiëren voelt onbeleefd.

Concrete maatregelen: verdediging tegen AI-fraude
Bestuurlijke aanpak
AI-dreigingen moeten worden opgenomen in de verplichte NIS2-risicoanalyse. Budget reserveren voor AI-detectietechnologie is essentieel. Voice analysis software, deepfake detection tools, behavioral analytics – deze zijn beschikbaar en betaalbaar.
Wijs een executive sponsor aan die verantwoordelijk is voor AI-beveiliging. Ontwikkel een incidentprotocol specifiek voor AI-fraude. En zorg voor regelmatige rapportage aan het bestuur over AI-dreigingsniveau. Niet één keer per jaar, maar structureel.
Verificatie boven vertrouwen
Implementeer een callback-protocol. Bij elk onverwacht financieel verzoek: bel terug op een bekend nummer. Niet het nummer uit de email of dat de beller geeft. Deze simpele maatregel voorkomt de meeste stemkloon-aanvallen.
Dual authorization voor alle betalingen boven een drempel. Geen enkele persoon kan meer zelfstandig grote bedragen overmaken. Second channel verificatie: verzoek via email? Verifieer via Teams. Verzoek via telefoon? Bevestig via email.
Spreek code words af binnen de directie voor noodgevallen. En overweeg een koelperiode: grote transacties naar nieuwe rekeningen krijgen automatisch uitstel van 24 uur, tenzij medisch noodzakelijk.
Technische maatregelen
Implementeer AI-detectietools. Voice analysis software kan subtiele inconsistenties detecteren. Deepfake detection tools analyseren video op artefacten. Versterk email-authenticatie met DMARC, SPF, DKIM. Behavioral analytics detecteren afwijkend gedrag: ongebruikelijke betaalverzoeken, vreemde login-tijden. En multifactor authenticatie overal, ook voor interne systemen.
Cultuurverandering en nieuwe awareness
Gezonde argwaan moet professioneel worden. Het is niet onbeleefd om te verifiëren, het is verantwoordelijk. “Verifieer altijd” wordt het nieuwe mantra. Zelfs bij een bekende stem. Zelfs bij een vertrouwd gezicht.
Doe simulatie-oefeningen met AI-aanvallen, maar ethisch en met toestemming. Creëer een rapportagekanaal zonder schaamte. Medewerkers moeten verdachte contacten kunnen melden zonder angst. Bespreek bijna-incidenten in teamvergaderingen. Leren zonder veroordelen.
Samenwerking en intelligence
Sluit aan bij Z-CERT voor actuele dreigingsinformatie. Het expertisecentrum voor cybersecurity in de zorg deelt real-time informatie over aanvallen in de sector. Vroege waarschuwing maakt het verschil.
Deel AI-incidenten binnen de sector. Geanonimiseerd, maar gedetailleerd. Als een zorginstelling een stemkloon-aanval meemaakt, moet de rest dat weten. Hoe werkte het? Wat was de attack vector? Hoe werd het ontdekt? Deze informatie redt andere organisaties.
Samenwerking met banken is cruciaal. Extra verificatie bij grote overschrijvingen naar nieuwe rekeningen. Banken kunnen patronen zien die individuele organisaties missen. En zij kunnen betalingen blokkeren voordat schade ontstaat.
Europese informatie-uitwisseling via Health ISAC. AI-aanvallen zijn internationaal. Criminele groepen opereren over grenzen. Internationale samenwerking is niet optioneel.
Van bewustzijn naar actie
TIjd voor actie:
AI-risicoanalyse
Inventariseer waar de organisatie kwetsbaar is voor AI-aanvallen. Welke functies hebben financiële bevoegdheden? Wie kan betalingen autoriseren? Wie heeft toegang tot gevoelige patiëntdata?
Analyseer welke publieke informatie beschikbaar is over bestuurders en leidinggevenden. Video’s op de website? Audio in podcasts? Interviews in de media? Social media posts? Al dit materiaal kan gebruikt worden voor stemklonen en deepfakes.
Identificeer welke processen afhankelijk zijn van vertrouwen in identiteit. Video-identificatie bij remote hiring? Telefonische verificatie bij wachtwoordresets? Email-communicatie met leveranciers? Deze zijn allemaal aanvalsvectoren.
Implementeer basisprotocollen
Voer het callback-protocol in. Communiceer dit duidelijk aan alle medewerkers met financiële bevoegdheden. Print posters. Stuur emails. Bespreek het in teamvergaderingen. Het moet de standaard worden.
Stel dual authorization in voor betalingen boven een bepaald bedrag. Configureer dit technisch in de betaalsystemen. Het mag niet afhangen van menselijke discipline. Het moet automatisch geforceerd worden.
Spreek code words af binnen de directie. Test deze direct. Gebruik ze in een oefensituatie. Zorg dat iedereen weet dat deze bestaan en hoe ze werken.
Technische assessment
Vraag de CISO of IT-manager om te rapporteren: welke AI-detectietools zijn beschikbaar op de markt? Wat kosten ze? Hoe complex is implementatie? Wat is de business case?
Controleer of email-authenticatie correct geconfigureerd is. DMARC moet actief zijn. SPF en DKIM moeten geïmplementeerd zijn. Dit is technische basishygiëne die veel organisaties over het hoofd zien.
Inventariseer welke video-systemen gebruikt worden. Teams? Zoom? Andere platforms? Hebben deze native deepfake-detectie? Zijn er third-party tools die geïntegreerd kunnen worden?
Awareness lancering
Organiseer een korte informatiesessie voor alle medewerkers over AI-fraude. Niet een lange, saaie presentatie. Maar concrete voorbeelden, echte casussen, directe relevantie. 30 minuten maximaal. Meer impact, minder tijd.
Deel concrete voorbeelden. Geanonimiseerd, maar gedetailleerd. Hoe werkte de aanval? Wat was de trigger? Hoe werd het ontdekt? Wat was de schade? Mensen onthouden verhalen beter dan regels.
Introduceer de nieuwe verificatieprotocollen. Leg uit waarom. Leg uit hoe. Geef voorbeelden. Beantwoord vragen. En vooral: normaliseer het. Dit is niet wantrouwen. Dit is professionaliteit.
Maak het melden van verdachte contacten expliciet onderdeel van het veiligheidsbeleid. Beloon vigilantie. Vier bijna-missers. Creëer een cultuur waar melden gewaardeerd wordt.
Urgentie zonder paniek
AI-fraude is geen toekomstmuziek. Het gebeurt nu. Deepfake-aanvallen zijn met 3000% gestegen. Nederlandse zorginstellingen worden actief geviseerd. De vraag is niet of het gaat gebeuren, maar wanneer.
Goede voorbereiding voorkomt financiële schade, reputatieschade, en juridische consequenties. Organisaties die nu handelen, bouwen een significante verdedigingslijn op. Organisaties die wachten, betalen later veel meer.
Patiëntveiligheid begint bij digitale veiligheid. Als systemen gecompromitteerd zijn, is zorgverlening in gevaar. Als patiëntgegevens gestolen worden, is vertrouwen geschaad. Digitale beveiliging is niet een IT-issue. Het is een kwaliteit van zorg issue.
Zorginstellingen die nu handelen, zijn beter beschermd dan de sector gemiddeld. Dat geeft concurrentievoordeel. Patiënten kiezen voor veilige zorgaanbieders. Verzekeraars prefereren organisaties met goede beveiliging.
Toezichthouders waarderen proactiviteit.

Samengevat
AI heeft de aard van cyberbedreiging fundamenteel veranderd: aanvallers gebruiken niet langer alleen technische kwetsbaarheden, maar manipuleren vertrouwen op een schaal en met een overtuigingskracht die menselijke detectie te boven gaat.
De combinatie van deepfakes, stemklonen en gepersonaliseerde phishing creëert een dreigingslandschap waarin traditionele beveiligingsmaatregelen en awareness-training grotendeels ineffectief zijn geworden.
Voor zorginstellingen is dit extra risicovol omdat de sector vertrouwen, hiërarchie en urgentie combineert met gevoelige data en financiële transacties – precies de ingrediënten die AI-gedreven fraude succesvol maken.
1. Procedurele verificatie verslaat technologische detectie
Investeren in AI-detectietools is belangrijk, maar callback-protocollen en dual authorization stoppen 80% van de aanvallen tegen fractie van de kosten. De zwakste schakel is niet de technologie, maar het ontbreken van verplichte verificatiestappen bij gevoelige transacties.
2. Cultuurverandering is niet optioneel
Gezonde argwaan moet geprofessionaliseerd worden in de zorg: het terugbellen van een ‘bestuurder’ om een betaling te verifiëren is geen gebrek aan vertrouwen, maar een teken van verantwoordelijkheid. Zonder deze cultuuromslag blijven organisaties kwetsbaar, ongeacht hun technische maatregelen.
3. AI-risico’s vereisen bestuurlijke aandacht
NIS2 maakt bestuurders persoonlijk aansprakelijk, maar AI-fraude maakt die aansprakelijkheid acuut: de gemiddelde schade van €250.000 per incident is te herleiden tot procedurele tekortkomingen die het bestuur moet autoriseren. Dit is geen onderwerp voor de maandelijkse IT-rapportage, maar voor structurele bestuursagenda.
4. Informatiebeveiliging is patiëntveiligheid
Gecompromitteerde systemen bedreigen directe zorgverlening: geen toegang tot EPD betekent geen adequate behandeling, gestolen patiëntdata ondermijnt vertrouwen fundamenteel. Informatie beveiliging is daarom niet een kostenpost maar een kwaliteitsinvestering die even kritiek is als medische apparatuur of gekwalificeerd personeel.
5. Continue intelligence, niet eenmalige oplossingen
AI-aanvallen evolueren sneller dan verdedigingstechnologie kan bijhouden, wat betekent dat samenwerking met Z-CERT, sector-brede informatie-uitwisseling en regelmatige updates van dreigingsbeelden belangrijker zijn dan elke individuele beveiligingsmaatregel. Organisaties die geïsoleerd opereren zijn structureel achter.
