Waarom AI Voice Scams betekenen dat u uw telefoon waarschijnlijk nooit zou moeten beantwoorden
- AI-zwendel, waarbij gekloonde stemmen worden gebruikt van mensen die u kent, is een ding.
- Het wordt steeds moeilijker om oplichting door AI-spraakklonen te vinden.
- Jezelf beschermen is net hetzelfde als bij gewone zwendeloproepen.

Westend61 / Getty-afbeeldingen
Stel je voor dat je wordt gebeld door een familielid of goede vriend. Ze zitten in de problemen en hebben geld nodig. Het nummer checkt uit. Het is hun stem. Maar zij zijn het niet. Het is een AI-imitator die je oplicht.
Volgens een rapport van McAfee, deze AI-stemzwendel neemt toe dankzij AI-imitators. En hoewel ze al altijd in een of andere vorm bestaan, maakt technologie de zwendel bijzonder overtuigend. Beller-ID-spoofing in combinatie met AI-spraakklonen zou waarschijnlijk de meeste mensen overtuigen. Dus hoe werkt het? En hoe kun je jezelf beschermen?
"Het is waar dat het genereren van stemmen door AI extreem snel verbetert. ElevenLabs-technologie voor het klonen van stemmen is griezelig goed, vooral als je bedenkt dat er maar weinig gegevens nodig zijn om het te laten werken. Ik kan situaties zien waarin mensen voor de gek kunnen worden gehouden, vooral als ze in een staat van verhoogde emoties worden geplaatst", aldus AI-consultant
Stemklonen leidt tot AI-spraakzwendel
Gewapend met een gekloonde stem kan een oplichter bellen en doen alsof hij iemand is die je al kent. Zo was er in april een verhaal over een opgelichte moeder met een nep-ontvoering van haar dochter met behulp van een door AI gekloonde stem.
Het lijkt volkomen ongelooflijk dat zoiets zelfs maar mogelijk is, maar ons ongeloof kan deze zwendel nog effectiever maken.
AI-stemoplichting kan worden aangepast om zeer gepersonaliseerde profielen van doelen op te bouwen door gegevens van openbare internetbronnen op te nemen.
Hoe werkt het? Om een stem te klonen, hebt u een opname van de originele stem nodig. Dankzij TikTok- en Instagram-video's zijn er veel trainingsgegevens beschikbaar. En je berichten op sociale netwerken lekken veel andere gegevens over je relaties met mensen die kunnen worden gebruikt om een meer overtuigende zwendel te maken.
Op dit moment is het inspanningsniveau nog steeds hoog. Je moet een doelwit kiezen, een voorbeeld van een stem vinden, het klonen en bellen, terwijl je de nummerweergave vervalst. Maar als we iets weten, is het dat oplichters waarschijnlijk steeds geavanceerder zullen worden.
"AI-stemoplichting kan worden aangepast om zeer gepersonaliseerde profielen van doelen te bouwen door gegevens van openbare internetbronnen op te nemen. Social Engineering Toolkits bestaan al jaren en worden gemakkelijk gebruikt door moderne cybercriminelen om informatie over doelwitslachtoffers te verzamelen. In tegenstelling tot moderne cybertegenslagen, wordt AI niet moe of ontmoedigd, om nog maar te zwijgen van het feit dat het vrijwel elke stem en taal kan synthetiseren," James Leone, cyberbeveiligingsadviseur bij IBM, vertelde Lifewire via e-mail.
En een zwendel hoeft geen neppoging tot ontvoering te zijn. Het kan net zo goed een AI-chatbot zijn die je opbelt en doet alsof hij van je bank is. Dat is meer op het niveau van automatisering van 419-zwendel, die klassieke e-mailzwendel waarbij een Nigeriaanse prins zijn geld het land uit wilde krijgen. Als je geen mensen nodig hebt om te bellen, kun je de wereld overspoelen met spam voor spraakoproepen.
"Het grootste gevaar is hoe gemakkelijk en goedkoop het is om dit soort zwendel te plegen. In het verleden was voor dit soort vervalsingen 10 uur audio (of video) van een onderwerp nodig, maar nu, omdat de technologie zo snel evolueert, heeft iedereen slechts 10 seconden audio nodig." Rijul Gupta, CEO en mede-oprichter van DiepMedia, een bedrijf voor het maken en detecteren van deepfakes, vertelde Lifewire via e-mail.

Kunt u zich beschermen tegen oplichting door AI-spraakklonen?
Ondanks de hoogtechnologische aard van deze oplichting, is de manier om jezelf te beschermen tegen telefonische oplichting niet veel veranderd.
Ten eerste moet u de nummerweergave niet vertrouwen. Hang dan altijd op en bel terug op een nummer dat je al hebt of zoek het zelf op.
Dat zorgt voor vrijwel alle 'gewone' zwendelpraktijken, maar zou ook effectief moeten zijn tegen gekloonde stemzwendel. Het probleem daar is het social engineering-element. Als beller-ID u ertoe aanzet om te verwachten dat u uw echtgenoot hoort, en de stemkloon is goed en klinkt als uw echtgenoot, dan bent u misschien overtuigd. Op dit moment zijn de modellen goed, maar niet zo goed.
"Het is belangrijk om te begrijpen dat deze modellen nog niet in staat zijn tot realistische toonverschuivingen. Een klein fragment van de stem waarvoor alleen een toon nodig is, kan mensen voor de gek houden, een langer fragment zal dat waarschijnlijk niet doen', zegt Batt.
Maar gezien de snelheid van AI-ontwikkeling op dit moment, zullen zwendelpraktijken met het klonen van stemmen alleen maar beter worden, dus we kunnen maar beter uitkijken en misschien stoppen met het aannemen van oproepen van nummers die u niet herkent.