1. De oude regels zijn verdwenen
Er was ooit een betrouwbare manier om een phishing-e-mail te herkennen. Slechte grammatica. Een Nigeriaanse prins die om uw bankrekening vraagt. “Dear Valued Customer.” Dringende verzoeken van verkeerd gespelde domeinen. U kon het in een halve seconde scannen en op verwijderen drukken.
Die versie van phishing is dood.
In 2026 was de e-mail waarin u werd gevraagd een overboeking goed te keuren door AI geschreven — met de daadwerkelijke schrijfstijl van uw CFO, gescraped uit jaren aan LinkedIn-berichten, bedrijfsnieuwsbrieven en Slack-screenshots. Het voicemailbericht van uw “bank” was gekloond uit drie seconden audio van een podcast. De videogesprek met uw “CEO” en twee “executives” was een live deepfake die draaide op gangbare hardware. En de phishingpagina waar u op terechtkwam was een real-time proxy die uw wachtwoord, uw MFA-code en uw sessiecookie tegelijk vastlegde — nog voordat u klaar was met typen.
De oude checklist hoeft niet te worden bijgewerkt. Hij moet volledig worden vervangen.
Deze gids legt uit hoe AI-phishing nu werkt, hoe de echte waarschuwingssignalen eruitzien in 2026 en — het belangrijkste — wat u er daadwerkelijk aan kunt doen.
2. Cijfers: hoe erg het is
| Metric | Data |
|---|---|
| Toename van door AI gegenereerde phishing sinds 2023 | +1,265% |
| Aandeel phishing-e-mails met door AI gegenereerde inhoud | 82.6% |
| Click-through rate: AI-phishing versus door mensen gemaakt | 4× hoger |
| Toename van voice-phishing (vishing) jaar-op-jaar | +442% |
| Phishing-aanvallen wereldwijd geregistreerd in 2025 (APWG) | 3,8 miljoen |
| Gemiddelde kosten van een datalek veroorzaakt door phishing | $4,88 miljoen |
| Verliezen door zakelijke e-mailcompromis in de VS in 2024 (FBI IC3) | $2,77 miljard |
| Organisaties getroffen door cyber-enabled fraude (WEF 2026) | 73% |
| Tijd om een stem te klonen van een audiofragment | 3 seconden |
| Menselijke nauwkeurigheid bij het detecteren van hoogwaardige deepfake-video | 24.5% |
| Menselijke nauwkeurigheid bij het detecteren van hoogwaardige gekloonde stemmen | onder 30% |
| Geprojecteerde wereldwijde AI-fraudeverliezen tegen 2027 | $40 miljard |
De versnelling is verbluffend. In december 2025 registreerde Hoxhunt's dreigingsdetectienetwerk een 14× toename in door AI gegenereerde phishing-e-mails vergeleken met de vorige maand — een enkele feestdagspiek die AI-geassisteerde phishing van onder 5% naar meer dan 56% van alle phishing in inboxen duwde. Dat aandeel is begin 2026 rond de 40% gesetteld, maar de trend is duidelijk. Ondertussen stegen adversary-in-the-middle (AiTM) aanvallen die multi-factor authenticatie omzeilen 146% in 2024, en deepfake-video scams namen toe 700% in 2025.
Meer dan 90% van de cyberaanvallen begint nog steeds met phishing. De mediane medewerker klikt op een phishing-link binnen 21 seconden. En phishing blijft de duurste initiële aanvalsvector, met gemiddelde kosten van $4,88 miljoen per datalek.
3. Hoe AI-phishing eigenlijk werkt
Het begrijpen van de aanval is de eerste stap om ertegen te verdedigen. Er zijn nu six onderscheidende categorieën van AI-gedreven phishing, elk gericht op een andere kwetsbaarheid.
3.1 Door AI gegenereerde spear-phishing e-mails
Oude phishing was een numbers game — miljoenen generieke e-mails versturen in de hoop dat iemand klikt. AI-phishing is chirurgisch.
Aanvallers voeden een LLM — soms een legitiem model, soms speciaal gebouwde criminele tools zoals WormGPT of FraudGPT — met de publiek beschikbare data van een doelwit: LinkedIn-profiel, sociale media geschiedenis, persberichten van het bedrijf, vacatures, GitHub-commits. Het model genereert een gepersonaliseerde e-mail die verwijst naar een echt project, de veronderstelde afzenderstoon benadert, correcte interne terminologie gebruikt en geen grammaticale fouten of ongemakkelijke formuleringen bevat.
IBM-onderzoek vond dat AI in vijf minuten een overtuigende spear-phishing e-mail kan produceren. Een bekwame menselijke aanvaller doet er zestien uur over. Dat is een 200× efficiëntiewinst — wat betekent dat aanvallen die eerder alleen economisch waren tegen waardevolle doelen nu winstgevend zijn tegen vrijwel iedereen.
Wat 2026 anders maakt: meer dan 92% van polymorfe phishingaanvallen gebruiken nu AI om honderden contextueel unieke berichtvarianten voor een enkele campagne te genereren. Elke e-mail is licht verschillend in bewoording, structuur en opmaak — zodat traditionele patroonherkenningsfilters ze niet als één campagne kunnen groeperen voor detectie. Onderzoekers voorspellen dat deze aanpak campagnedetectie tegen 2027 vrijwel onmogelijk zal maken.
Praktijkvoorbeeld: Een campagne gericht op 800 accountantskantoren gebruikte AI om de specifieke statutaire registratiegegevens en recente aangiftes van elk kantoor te noemen. Click rate: 27% — ongeveer vier keer het branchegemiddelde voor phishing.
3.2 Deepfake stemoproepen (Vishing)
Stemklonen is een drempel gepasseerd die onderzoekers het “onscheidbare drempel” noemen. Eind 2025 kunnen menselijke luisteraars hoogwaardige gekloonde stemmen niet langer betrouwbaar onderscheiden van authentieke stemmen. De technologie vereist zo weinig als 3 seconden audio om een overtuigende kloon te genereren — compleet met natuurlijke intonatie, ritme, pauzes, ademhaling en emotionele kleur.
Hoe aanvallers aan die audio komen: een enkele spamoproep waarin ze u vragen “ja” of “hallo” te zeggen. Een podcastoptreden. Een bedrijfswinstrapport. Een voicemailgroet. Een YouTube-video.
Daarmee produceren ze een oproep die precies klinkt als uw bank, uw baas of uw kind. Sommige grote retailers melden nu meer dan 1.000 door AI gegenereerde scam-oproepen per dag.
Patronen van aanvallen:
- “Grootouder-scams”: Een in paniek zijnde oproep van een stem die precies klinkt als uw kleinkind, bewerend in de problemen te zitten en onmiddellijk geld nodig te hebben. Synthetische stemmen geven nu met verontrustende nauwkeurigheid huilen, angst en urgentie weer. Deze scams gericht op familieleden namen in 2025 met 45% toe.
- “CEO-fraude” oproep: De gekloonde stem van uw CFO belt het financiële team en vraagt om een dringende overboeking voor het einde van de dag. Vertrouwelijk. Betrek niemand anders. CEO-fraude richt zich nu naar schatting op 400 bedrijven per dag.
- “Bankbeveiliging” oproep: Een gezaghebbende stem van “de fraudedienst van uw bank” vertelt dat uw rekening is gecompromitteerd en begeleidt u bij het overmaken van uw geld naar een “veilige rekening.”
In meer dan 80% van de voice-phishingaanvallen gebruiken aanvallers vervalste beller-ID's om de oproep te laten lijken alsof deze van een legitiem nummer komt. Vishing is nu goed voor meer dan 60% van de phishing-gerelateerde incidentresponsopdrachten.
3.3 Deepfake videogesprekken
Hier wordt het het meest alarmerend — en het duurst.
De Arup-zaak (2024): Een medewerker van het Britse ingenieursbureau Arup nam deel aan wat leek op een routinevideovergadering met de CFO van het bedrijf en meerdere senior executives. Iedereen zag er goed uit. Iedereen klonk goed. Hij gaf toestemming voor 15 transacties ter waarde van $25,6 miljoen naar bankrekeningen in Hong Kong. Iedereen in dat gesprek was een deepfake.
Singapore, maart 2025: Een financieel directeur bij een multinational nam deel aan een Zoom-gesprek met de “CFO” en ander leiderschap. De CFO had zelfs proactief de videogesprek voorgesteld — wetende dat het financiële personeel was gewaarschuwd voor deepfakes, weaponiseerden de aanvallers juist de verificatiestap die bedoeld was om hen te stoppen. De directeur autoriseerde een overboeking van $499.000. Alle executives op het scherm waren door AI gegenereerd.
Europees energieconglomeraat, begin 2025: Aanvallers gebruikten een deepfake-audiokloon van de CFO om live instructies te geven tijdens een oproep voor een dringende overboeking. De stem repliceerde pauzes, toon en cadans perfect. De gelden — $25 miljoen — waren binnen enkele uren verdwenen.
Deze aanvallen werken omdat videogesprekken een krachtig gevoel van verificatie creëren. Iemand zien zou betrouwbaarder moeten zijn dan hun e-mail lezen. Aanvallers hebben dat geleerd en richten zich nu juist op die verificatiestap. Nieuwe deepfake-modellen behouden temporele consistentie — geen geflikker, vervorming of uncanny-valley artefacten meer waar eerdere detectie op steunde.
3.4 Gecoördineerde multi-channel aanvallen
De meest geavanceerde campagnes vertrouwen niet op één kanaal. Een gecoördineerde aanval kan er zo uitzien:
- Email komt van de “CFO” en verwijst naar een echte leverancier en een echt project, en vraagt om goedkeuring van een factuur
- Voicemail volgt van dezelfde “CFO” — gekloonde stem — die de urgentie versterkt
- Videogesprek wordt aangeboden ter verificatie, met deepfaked executives
- Pressure wordt gebruikt om normale goedkeuringskanalen te omzeilen omdat de deal “tijdgevoelig” en “vertrouwelijk” is
Elke stap versterkt de vorige. De combinatie van kanalen creëert een gevoel van realiteit dat geen enkel kanaal alleen zou kunnen bereiken. Cross-channel AI-fraude (combinatie van stem, video en tekst) zal naar verwachting meer dan 60% van de aanvallen domineren tegen 2027.
3.5 Door AI aangedreven phishing-websites en AiTM
Naast e-mail en oproepen wordt AI gebruikt om honderden frauduleuze websites te genereren — kloon-sites die de exacte branding, lay-out en UX van echte diensten repliceren. Deze sites bevatten nu pixel-perfecte inlogpagina's voor Microsoft 365, Google Workspace en bankportals; functioneel ogende dashboards die “succesvolle” acties bevestigen; en polymorf gedrag dat de inhoud van de site aanpast op basis van de browser, locatie en verwijzer van de bezoeker.
Maar de gevaarlijkste evolutie is de adversary-in-the-middle (AiTM) aanval. In plaats van u een statische nep-pagina te tonen, proxy't de phishingsite de echte inlogpagina — en geeft uw inloggegevens en MFA-code door aan de legitieme dienst in real time, terwijl hij uw sessiecookie vastlegt. Die cookie stelt de aanvaller in staat uw volledig geauthenticeerde sessie over te nemen, waardoor SMS-codes, authenticator-apps en pushmeldingen nutteloos worden.
3.6 Phishing-as-a-Service: de industriële schaal
Dit is wat het spel veranderde in 2025–2026. Phishing is niet langer een soloproject — het is een abonnementsdienst.
Het meest beruchte voorbeeld: Tycoon 2FA, een phishing-as-a-service platform dat gespecialiseerd was in MFA-omzeiling. Voor ongeveer $120 kregen abonnees toegang tot een kant-en-klare toolkit: vervalste inlogpagina's, een reverse proxy-laag, campagnemanagementdashboards en real-time credential harvesting — allemaal geleverd via Telegram-kanalen.
Op zijn hoogtepunt had Tycoon 2FA ongeveer 2.000 criminele abonnees, gebruikte meer dan 24.000 domeinen en genereerde tientallen miljoenen phishing-e-mails per maand. Medio 2025 was het verantwoordelijk voor ongeveer 62% van alle phishing die Microsoft blokkeerde. Het richtte zich op Microsoft 365- en Google Workspace-accounts in bijna elke sector — onderwijs, gezondheidszorg, financiën, overheid.
Op 4 maart 2026 nam een gecoördineerde internationale operatie geleid door Europol, Microsoft en een coalitie van private partners 330 domeinen in beslag en ontmantelde de kerninfrastructuur van Tycoon 2FA. Maar de activiteit van het platform keerde binnen enkele dagen terug naar pre-disruptieniveaus, en de onderliggende technieken zullen de dienst overleven. De les is structureel: wanneer geavanceerde MFA-omzeiling kan worden gehuurd voor de prijs van een diner, is de toetredingsdrempel voor geavanceerde phishing effectief ingestort.
4. De nieuwe waarschuwingssignalen
De oude waarschuwingssignalen — slechte grammatica, generieke aanhef, verdachte bijlagen — zijn niet langer betrouwbaar. AI elimineert ze. Dit is waar u in plaats daarvan op moet letten.
Voor e-mails
1. Verdachte perfectie. Echte mensen maken kleine fouten. Ze gebruiken verkortingen, beginnen zinnen met “En”, spellen af en toe verkeerd. Als uw collega die normaal ‘hey can u check this’ schrijft ineens een formeel opgestelde e-mail met volledige interpunctie stuurt, klopt er iets niet. Perfectie is nu een waarschuwingsteken, geen geruststelling.
2. Ongepaste details. AI scrapt uw openbare gegevens om aanvallen te personaliseren. Als een e-mail informatie noemt die de veronderstelde afzender redelijkerwijs niet zou moeten weten — de school van uw dochter, een specifieke projectcode, een gesprek van een conferentie — vraag dan hoe ze eraan gekomen zijn. Echte relaties hebben natuurlijke grenzen aan wat mensen van elkaar weten. AI begrijpt die grenzen niet.
3. Combinatie van urgentie + geheimhouding. “Dit is tijdgevoelig en vertrouwelijk — vertel het niemand anders.” Deze combinatie is bijna altijd manipulatie. Legitieme dringende verzoeken vereisen zelden het omzeilen van normale goedkeuringsprocessen. Het verzoek om stil te blijven voorkomt verificatie.
4. Verzoek dat normale procedures omzeilt. Elke financiële, inlog- of toegangsaanvraag die expliciet vraagt een normale stap over te slaan, moet als verdacht worden beschouwd, ongeacht hoe deze wordt gekaderd.
5. Afzenderdomein met kleine variatie. AI-gegenereerde e-mails komen vaak van domeinen die één teken afwijken: paypa1.com, microsoft-security.com, amazon-verify.net. Beweeg met uw muis over een link voordat u erop klikt. Controleer het echte e-mailadres van de afzender — niet de weergegeven naam.
6. QR-codes en ongebruikelijke bijlagen. QR-code-phishing (“quishing”) nam toe 400% tussen 2023 en 2025. Aanvallers embedden kwaadaardige links in QR-codes omdat veel e-mailbeveiligingsfilters URL's in afbeeldingen niet kunnen lezen. Wees sceptisch over onverwachte e-mails met een QR-code, een SVG-bestand of een kalenderuitnodiging van een onbekende afzender.
Voor telefoongesprekken
1. Onnatuurlijk ritme. Echt spraak is rommelig. We ademen ongelijkmatig, haperen op lettergrepen, versnellen als we opgewonden zijn. AI-stemmen hebben vaak een “metronoom”-kwaliteit — een uniforme timing, onnatuurlijk soepele overgangen. Let op het ontbreken van imperfectie.
2. Audio die te schoon is. Een benauwde oproep van een echt familielid in een noodsituatie zal achtergrondgeluid hebben — verkeer, wind, kamergalm. Deepfake-audio is vaak verdacht schoon, of bevat vage digitale clipping aan het einde van zinnen.
3. Directe reacties. Tijdens een live voice-phishinggesprek heeft het AI-systeem van de aanvaller een fractie van een seconde nodig om antwoorden te genereren. Een subtiele verwerkingslatentie — of omgekeerd, verdachtelijk directe antwoorden zonder natuurlijke pauze om na te denken — kan wijzen op een synthetisch gesprek.
4. Druk om onmiddellijk te handelen. Urgentie die u verhindert te pauzeren om te verifiëren is een doelbewuste psychologische tactiek. Geen legitieme nood vereist dat u binnen vijf minuten een overboeking autoriseert.
Voor videogesprekken
1. Inconsistenties in lip-sync. Ondanks verbeteringen vertoont deepfake-video soms subtiele mismatches tussen mondbewegingen en audio, het meest zichtbaar bij medeklinkers — “p”, “b”, “m” geluiden waarbij de lippen duidelijk sluiten.
2. Onnatuurlijk knipperen en oogbewegingen. AI-gegenereerde gezichten kunnen knipperen in patronen zonder menselijke willekeur. Oogbewegingen tijdens nadenken of het scannen van de ruimte ontbreken vaak of zijn gestileerd.
3. Randartefacten. Haar, oorbellen en de grens tussen gezicht en achtergrond kunnen subtiele vervorming vertonen — lichte vervaging, inconsistente scherpte. Vertrouw op het ‘uncanny valley’-gevoel als iets een beetje vreemd lijkt.
4. Onconsistentie in verlichting. Als de verlichting op iemands gezicht niet overeenkomt met de schijnbare omgeving, of verschuift op manieren die niet overeenkomen met camerabeweging, is dat een technische aanwijzing.
Belangrijke kanttekening: Deze visuele aanwijzingen verdwijnen snel. Een iProov-studie vond dat slechts 0.1% van deelnemers alle getoonde deepfakes correct identificeerden. Vertrouw niet op uw ogen als primaire verdediging.
5. Wat u daadwerkelijk kunt doen
Detectie wordt moeilijker naarmate AI verbetert. Verdediging moet zich steeds meer richten op processen die werken ongeacht of u de vervalsing kunt zien.
Voor individuen
Stel een familiecodewoord in. Kies een woord of zin die alleen uw directe familie kent. Iedereen die belt en beweert een familielid in nood te zijn, moet het geven voordat u actie onderneemt. Deze ene stap deugt vrijwel alle grootouder-scams.
Hang op en bel terug op een nummer dat u al hebt. Als u een telefoontje ontvangt van een financiële instelling, overheidsinstantie of iemand die autoriteit beweert — hang op. Bel niet terug naar het nummer dat ze u geven. Bel het nummer achter op uw kaart, van de officiële website of uit uw opgeslagen contacten. Legitieme bellers zullen het begrijpen.
Klik nooit op links in berichten — ga direct naar de site. Of het nu een bankmelding, een Microsoft-notificatie of een pakketbezorging is: klik niet op de link. Open een nieuw browsertabblad en typ het webadres zelf in. Als er echt een probleem met uw account is, ziet u het wanneer u direct inlogt.
Wees sceptisch over QR-codes. Scan geen QR-codes uit onverwachte e-mails, sms'jes of openbare aankondigingen zonder de bron te verifiëren. Aanvallers embedden steeds vaker kwaadaardige URL's in QR-codes omdat uw e-mailfilters ze niet kunnen oppikken.
Schakel overal MFA in — maar begrijp de beperkingen. Multi-factor authenticatie blokkeert het merendeel van geautomatiseerde credential-theft aanvallen en blijft essentieel. Gebruik een authenticator-app (waar mogelijk niet SMS) voor belangrijke accounts. Maar weet dat MFA niet meer waterdicht is — adversary-in-the-middle-aanvallen kunnen sessietokens in real time onderscheppen. Hardware-beveiligingssleutels (YubiKey, Titan) FIDO2 zijn de enige authenticatiemethode die volledig resistent is tegen AiTM-phishing, omdat ze cryptografisch gebonden zijn aan het legitieme domein en weigeren te authenticeren op een proxy-site. Zie onze Complete 2FA Setup Guide and Passkeys Ultimate Guide.
Verminder uw publieke audio- en video-voetafdruk. Hoe minder audio en video van u publiek beschikbaar is, hoe moeilijker het is u te klonen. Lange video-interviews, podcastoptredens en bedrijfsbrede opnames zijn primaire bronnen voor stemklonen.
Voor organisaties
Verificatie via een ander kanaal voor elk financieel verzoek. Geen enkele overboeking, geen wijziging van inloggegevens, geen betaling aan een leverancier mag worden geautoriseerd uitsluitend op basis van een e-mail of telefoontje, ongeacht hoe overtuigend het lijkt. Een afzonderlijke verificatie — bellen naar de verzoeker op een bekend nummer, een tweede goedkeurder, check bij de IT-helpdesk — moet ononderhandelbaar zijn.
Drempels voor goedkeuring door meerdere personen. Elke transactie boven een vastgesteld bedrag vereist dat twee personen onafhankelijk goedkeuren. Dit is de meest effectieve enkele maatregel tegen CEO-fraude. Zelfs als één persoon volledig overtuigd is, doorbreekt een tweede goedkeurder de aanval.
Creëer een cultuur van “toestemming om te vragen”. Werknemers moeten expliciete organisatorische toestemming hebben om ongebruikelijke verzoeken te verifiëren — zelfs van leidinggevenden — zonder angst om obstructief over te komen. Aanvallers misbruiken de menselijke neiging om autoriteit te respecteren.
Implementeer phishing-resistente authenticatie. De Tycoon 2FA inbeslagname maakte duidelijk: traditionele MFA kan op industriële schaal worden omzeild. FIDO2 hardware-sleutels zijn de meest effectieve bescherming tegen AiTM-aanvallen. Ze weigeren te authenticeren op een proxy-site die het legitieme domein nabootst. Geef prioriteit aan uitrol voor beheerders, financiële teams en leidinggevenden.
E-mailauthenticatie: SPF, DKIM, DMARC. Deze protocollen voorkomen dat aanvallers uw eigen domein spoofen — waardoor het onmogelijk wordt voor een e-mail die beweert van yourcompany.com te komen om te slagen in authenticatie als het niet daadwerkelijk van uw systemen afkomstig was.
Werk phishingtraining bij met actuele voorbeelden. De meeste security awareness-programma's gebruiken nog steeds phishingvoorbeelden uit 2020 met voor de hand liggende rode vlaggen. Organisaties met bijgewerkte, gedragsgebaseerde trainingsprogramma's verlagen klikpercentages tot slechts 1,5%. Organisaties die vertrouwen op jaarlijkse generieke training zien verwaarloosbare verbeteringen. Training moet realistische door AI gegenereerde simulaties gebruiken en continu zijn.
Monitor voor gestolen sessietokens en inloggegevens. Zelfs nadat wachtwoorden zijn gereset blijven gestolen sessiecookies bruikbaar totdat ze expliciet worden ingetrokken. Implementeer continue monitoring voor blootgestelde credentials in criminele ecosystemen en anomalieën bij logins.
6. Wat detectietechnologie kan en niet kan
Verschillende tools proberen nu in real time AI-gegenereerde inhoud te detecteren:
- McAfee Deepfake Detector: Claimt 96% nauwkeurigheid bij het flaggen van synthetische audio, draait lokaal op het apparaat in minder dan 3 seconden
- Hiya Deepfake Voice Detector: Browserextensie en mobiele tool die een “authenticity score” toekent aan binnenkomende oproepen
- Pindrop Pulse: Enterprise callcenter-tool die synthetische stemmen detecteert voordat transacties worden geautoriseerd
- Content Provenance (C2PA): Een door een coalitie ondersteunde standaard voor cryptografische ondertekening van media op het moment van creatie, waarmee manipulatiedetectie-ketens worden vastgesteld
Deze tools helpen, maar gebruik ze met voorzichtigheid. AI-gebaseerde detectietools verliezen tot 50% van hun nauwkeurigheid in reële omstandigheden vergeleken met gecontroleerde labomgevingen — precies de kloof tussen een onderzoeksdemo en een daadwerkelijke aanval. Gartner voorspelt dat tegen 2026 30% van de ondernemingen standalone identiteit verificatieoplossingen onbetrouwbaar zal vinden in isolatie.
Het fundamentele probleem is dat deepfake-generatie en deepfake-detectie een wapenwedloop zijn, en generatie wint momenteel. Procesgebaseerde verdedigingsmaatregelen — verificatieprotocollen, vereisten voor meerdere goedkeurers, codewoorden, FIDO2-sleutels — werken onafhankelijk van hoe goed de deepfake wordt. Technische detectietools zijn een nuttige laag maar geen primaire verdediging.
De zinvolle verdedigingslijn verschuift van menselijke beoordeling naar infrastructuurniveau-bescherming: media cryptografisch ondertekend bij de bron, phishing-resistente authenticatie en cross-sector dreigingsinformatie-uitwisseling. Alleen harder naar pixels kijken zal niet langer volstaan.
7. De psychologische mechanismen
Begrijpen waarom deze aanvallen werken helpt u ze te weerstaan, zelfs wanneer u de vervalsing niet kunt herkennen.
AI-phishing richt zich specifiek op drie psychologische hefbomen:
Authority. Een bericht van uw CEO, uw bank, uw kind — iemand met legitieme macht over uw gedrag — triggert nalevingsinstincten die kritische evaluatie omzeilen. In 95% van de voice-phishingaanvallen doet de aanvaller zich voor als een autoriteitsfiguur.
Urgency. “Binnen het uur.” “Voor het einde van de dag.” “Of uw account wordt permanent gesloten.” Urgentie verhindert de pauze die verificatie vereist. De mediane medewerker klikt op een phishing-link binnen 21 seconden — er is vrijwel geen tijd voor rationele evaluatie.
Secrecy. “Bespreek dit met niemand anders.” Dit is de ene die altijd een rode vlag moet zijn. Geheimhouding verwijdert de tweede opinie die de aanval zou onderscheppen.
Wanneer alle drie samen voorkomen — autoriteit, urgentie en geheimhouding — beschouw het dan als vrijwel zeker een aanval, ongeacht hoe overtuigend de bron lijkt.
8. Snelreferentie: wat u nu moet doen
In de volgende 5 minuten:
- Stel een familiecodewoord in voor verificatie bij noodoproepen
- Schakel tweefactorauthenticatie in op uw e-mail- en bankaccounts
Deze week:
- Bestel een FIDO2-hardwarebeveiligingssleutel (YubiKey, Google Titan) voor uw meest kritieke accounts
- Controleer uw publiek beschikbare audio en video online
- Stel een authenticator-app in op alle belangrijke accounts die geen hardware-sleutels ondersteunen
Voor uw werkplek:
- Deel deze gids met uw team
- Stel verificatie via een ander kanaal in als verplichte stap voor financiële verzoeken
- Controleer of uw e-mail DMARC-authenticatie gebruikt (uw IT-team kan dit verifiëren)
- Start een pilotprogramma voor FIDO2-hardware-sleutels, te beginnen met financiële en administratieteams
Als u denkt dat u het doelwit bent:
- Stop onmiddellijk alle communicatie met de vermoedelijke aanvaller
- Neem contact op met uw financiële instelling als er geld bij betrokken is
- Doe aangifte bij de FTC op ReportFraud.ftc.gov (VS), of bij uw nationale cybercrime-meldpunt
- Breng uw IT- of beveiligingsteam op de hoogte zodat anderen in uw organisatie gewaarschuwd kunnen worden
- Als u inloggegevens hebt ingevoerd op een verdachte site, wijzig dan onmiddellijk uw wachtwoord en intrek alle actieve sessies
9. De eerlijke conclusie
U zult een hoogwaardige AI-phishingaanval niet betrouwbaar kunnen detecteren door ernaar te kijken. De technologie is te goed en verbetert te snel. Slechts 0.1% van de mensen in een recente studie konden alle getoonde deepfakes correct identificeren. Menselijke nauwkeurigheid bij hoogwaardige gekloonde stemmen is onder 30%. De visuele aanwijzingen in deepfake-video worden met elke modelupdate geëlimineerd.
Wat u kunt doen is detectie irrelevant maken. De aanvallen die slagen zijn die waarbij één persoon, in een moment van urgentie, alleen handelt. De aanvallen die falen zijn die waarbij een tweede stap wordt geraakt — een terugbelactie, een tweede goedkeurder, een codewoord, een FIDO2-sleutel die weigert te authenticeren op het verkeerde domein — waar de illusie doorbroken wordt.
Bouw processen die aannemen dat de communicatie die u ontvangt mogelijk nep is. Verifieer via onafhankelijke kanalen. Versnel niet als men u opdraagt het snel te doen. Stel vragen als men u verzoekt te zwijgen.
De criminelen gebruiken AI. Uw beste verdediging is volhardend menselijk: scepsis, een tweede paar ogen en een telefoontje dat u zelf initieert.
Gerelateerde gidsen: Gids voor reactie bij datalekken · Beste praktijken voor wachtwoordbeveiliging · Complete 2FA Setup Guide · Beste wachtwoordmanagers 2026 · Is mijn e-mail gehackt? (Breach Checker)
❓ Veelgestelde vragen
Als een stem precies klinkt als iemand die ik ken, kan ik die dan vertrouwen?
Nee. Gebruik een familiecodewoord, hang op en bel terug op een nummer dat u al heeft van een kaart, officiële site of opgeslagen contact — nooit het nummer dat de beller u gaf.
Zijn slechte grammatica en typfouten nog steeds betrouwbare tekenen van phishing?
Niet meer als primaire test. AI kan foutloze, gepersonaliseerde teksten produceren. Vertrouw op proces: verifieer via een ander kanaal, controleer afzenderdomeinen en links, behandel urgentie plus geheimhouding als een rode vlag en wees sceptisch over onverwachte QR-code scams (ook quishing genoemd).
Stopt MFA adversary-in-the-middle (AiTM) phishing?
SMS en app-gebaseerde TOTP kunnen nog steeds in real time worden doorgestuurd door een reverse-proxy phishingsite. Voor accounts die ertoe doen, gebruik FIDO2 hardware-beveiligingssleutels (of passkeys waar beschikbaar): ze binden authenticatie aan het echte domein en voltooien geen login op een lookalike-proxy.
Stoppen deepfake-detectors en call-scoring tools AI-phishing?
Ze kunnen helpen als laag, maar de nauwkeurigheid daalt vaak scherp buiten het lab. Behandel proces als primair: terugbelacties, tweede goedkeurers, codewoorden, FIDO2-sleutels en continue monitoring voor gestolen sessies — niet alleen pixel-spotting.
Wat was Tycoon 2FA en waarom is het belangrijk?
Het was een groot phishing-as-a-service platform gericht op MFA-omzeiling via reverse proxies. Zelfs na ingrepen door rechtshandhaving in 2026 blijven soortgelijke kits beschikbaar — daarom zijn phishing-resistente authenticatie en verificatie via een ander kanaal belangrijker dan ooit.
Laatst bijgewerkt: april 2026.