)

AI maakt fraude persoonlijker én gevaarlijker

Een paar seconden. Meer heeft AI niet nodig om jouw stem na te bootsen. Een stukje van een video op social media, een voicemail of een fragment uit een Teams-call. En voilà, een oplichter kan bellen met jouw stem. Bijvoorbeeld als je zoon of als bankmedewerker. 

AI heeft fraude getransformeerd van een doorzichtig telefoontje met een verdacht accent, naar een geloofwaardige aanval die precies op jou is afgestemd. En het wordt niet minder. Tijd om te weten waar je op moet letten. 

 

Voice Cloning - wie heb ik aan de lijn?

Stemklonen is een van de meest verontrustende toepassingen van AI in de wereld van fraude. Met een handvol seconden audio kan een AI-tool jouw stem overtuigend nabootsen. Een oplichter belt jou bijvoorbeeld op met de stem van je kind. Vaak is er haast, bijvoorbeeld een dringend verzoek om geld over te maken.
 
Wat doe je?

  • Hang op en bel terug naar een nummer dat je zelf kent
  • Nooit terugbellen op het nummer dat de beller opgaf
  • Vraag naar het codewoord dat jullie hebben afgesproken 

Een codewoord is simpel en effectief. Klinkt overdreven? Dat dachten mensen ook over het nachtslot… 

Deepfakes – zien is niet meer geloven 

Deepfakes zijn nep-video's waarbij het gezicht én de stem van iemand worden gekopieerd. Inmiddels is dit nauwelijks van echt te onderscheiden. In het bedrijfsleven worden directeuren al nagebootst om medewerkers opdracht te geven tot grote overboekingen. Maar ook gewone consumenten zijn doelwit. Denk aan een videobericht van je bank of een WhatsApp-audio van iemand die je vertrouwt. 

Goed om te weten: hoe meer haast, hoe meer alarm. Banken, overheden of familieleden begrijpen het als je even terugbelt om het te controleren. Oplichters niet.

 

Spear phishing – de phishingmail 2.0 

Vroeger herkende je een phishingmail op tien meter afstand. Spelfouten, een vreemd e-mailadres en een verdachte link. Die tijd is helaas voorbij. AI kan tegenwoordig grote hoeveelheden data analyseren: bijvoorbeeld je sociale media en nieuwsberichten waarin je voorkomt.  
 
Zo worden phishingberichten precies op jou afgestemd. Met je naam, werkgever en een verwijzing naar iets wat je recent deed. Dit heet spear phishing: een gerichte aanval op jou persoonlijk, in plaats van een massamail naar duizenden mensen. 

Waar let je op? 

  • Klik nooit op een link in een onverwacht bericht, ook niet als het er betrouwbaar uitziet.
  • Ga altijd zelf naar de website door het adres in te typen, nooit via de link in het bericht!
  • Twijfel je? Bel het bedrijf op via het officiële nummer op hun website. 

 

Zo maak jij het oplichters moeilijk 

AI maakt oplichters gevaarlijker, maar een paar simpele gewoontes maken jou een stuk moeilijker doelwit.

  • Spreek een codewoord af met je familie. Een woord dat alleen jullie kennen. Vraag ernaar als iemand belt met een dringend verzoek.
  • Hang op en bel zelf terug. Altijd op een nummer dat je zelf kent - nooit het nummer dat de beller opgeeft.
  • Wees extra alert bij haast en urgentie. Tijdsdruk is het belangrijkste wapen van een oplichter. Neem altijd even de tijd.
  • Klik nooit op links in onverwachte berichten. Typ het adres zelf in, ook als het bericht er betrouwbaar uitziet.
  • NIBC vraagt nooit naar je pincode of wachtwoord. Niet via de telefoon, niet via e-mail en niet via sms. 

AI maakt fraude persoonlijker dan ooit. Maar de sterkste beveiliging? Dat ben jij zelf. Neem de tijd als er druk op je wordt uitgeoefend en denk na voordat je ergens op klikt. Twijfel je? Doe altijd een dubbelcheck via het officiële nummer of de officiële website. 

Reinier Gunneman

Tip van de expert

 

Reiniers 5 tips voor veilig AI-gebruik

  1. Zet tweestapsverificatie (2FA) aan - zeker voor je e-mail en bankrekening.
  2. Upload nooit gevoelige documenten (met BSN, paspoort of bankgegevens) naar een gratis AI-tool.
  3. Zwartmaken in een PDF is niet genoeg - verwijder tekst echt uit het bestand. Bijvoorbeeld met de KopieID-app van Rijksoverheid.
  4. Vraag via de AVG bij bedrijven op welke data zij over jou bewaren als ze gehackt zijn.
  5. Gebruik bij voorkeur een betaalde AI-versie als je werkt met privacygevoelige informatie. En zet altijd 'data delen' met het model uit.

Reinier Gunneman is oprichter van AI voor Financieel Dienstverleners.

Bij NIBC doen wij er alles aan om je spaargeld veilig te houden.

Geen resultaten beschikbaar, verfijn je zoekopdracht